Οι εμπειρογνώμονες AI προειδοποιούν: Εξαφάνιση της ανθρωπότητας από την τεχνητή νοημοσύνη

Οι ειδικοί σε θέματα τεχνητής νοημοσύνης προειδοποιούν για το ενδεχόμενο η τεχνητή νοημοσύνη να προκαλέσει την εξαφάνιση του ανθρώπου. Σε δήλωση γνωστών ειδικών, συμπεριλαμβανομένων των ηγετών της Google DeepMind και του OpenAI, τονίζεται η ανάγκη για παγκόσμια ιεράρχηση των προτεραιοτήτων για την αντιμετώπιση αυτού του κινδύνου.

Οι εμπειρογνώμονες AI προειδοποιούν: Εξαφάνιση της ανθρωπότητας από την τεχνητή νοημοσύνη>

Περιεχόμενα

  1. Η Τεχνητή Νοημοσύνη θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας, λένε οι ειδικοί της Τεχνητής Νοημοσύνης
  2. Κίνδυνος Εξαφάνισης: Παγκόσμια προτεραιότητα
  3. Ξεπερνώντας τα εμπόδια και ανοίγοντας τη συζήτηση
  4. Γνωστές προσωπικότητες και ερευνητές εκφράζουν ανησυχίες
  5. Η εντατικοποιημένη συζήτηση και οι ανησυχίες
  6. Αντίθετες απόψεις και πραγματικά ζητήματα
  7. Απρόβλεπτες συνέπειες και δυνητικοί κίνδυνοι

Οι ειδικοί της τεχνητής νοημοσύνης προειδοποιούν για την πιθανή εξαφάνιση της ανθρωπότητας καθώς η τεχνητή νοημοσύνη προχωρά.

Η δήλωση, που υπογράφεται από γνωστές προσωπικότητες όπως οι ηγέτες της Google DeepMind και του OpenAI, τονίζει την ανάγκη να δοθεί προτεραιότητα στην αντιμετώπιση αυτού του κινδύνου σε παγκόσμιο επίπεδο. Με τις αυξανόμενες συζητήσεις σχετικά με τους επείγοντες κινδύνους που εγκυμονεί η Τεχνητή Νοημοσύνη, η δήλωση αποσκοπεί στην υπέρβαση των εμποδίων και τη διευκόλυνση της δημόσιας συζήτησης.

Σημαντικές προσωπικότητες, συμπεριλαμβανομένων πρωτοπόρων της ΤΝ και ερευνητών από αξιόλογα πανεπιστήμια, έχουν προσχωρήσει στην έκκληση για σοβαρή εξέταση των κινδύνων που συνδέονται με την προηγμένη ΤΝ. Η συζήτηση έχει ενταθεί μετά το ντεμπούτο του ChatGPT και τις ανησυχίες σχετικά με τον αντίκτυπο της ΤΝ στον πόλεμο, τις αγορές εργασίας και τις κοινωνικές επιπτώσεις.

Ενώ ορισμένοι σκεπτικιστές υποβαθμίζουν τους φόβους εξαφάνισης, τονίζοντας ζητήματα όπως η προκατάληψη, άλλοι προειδοποιούν για απρόβλεπτες συνέπειες, παραβιάσεις της ιδιωτικής ζωής και αυτόνομες κρίσεις που προκαλούνται από τις έξυπνες μηχανές. Πηγή: huffpost.

Η Τεχνητή Νοημοσύνη θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας, λένε οι ειδικοί της Τεχνητής Νοημοσύνης

Μια δήλωση που προειδοποιεί ότι η Τεχνητή Νοημοσύνη (ΤΝ) θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας υπογράφεται από αρκετούς ειδικούς στον τομέα αυτό – συμπεριλαμβανομένων των επικεφαλής της Google DeepMind και της OpenAI (ChatGPT).

Κίνδυνος Εξαφάνισης: Παγκόσμια προτεραιότητα

«Η αντιμετώπιση/μείωση του κινδύνου εξαφάνισης από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», αναφέρει η δήλωση, η οποία έχει αναρτηθεί στον ιστότοπο του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης.

Ξεπερνώντας τα εμπόδια και ανοίγοντας τη συζήτηση

Όπως τονίζεται, «οι εμπειρογνώμονες ΤΝ, οι δημοσιογράφοι, οι υπεύθυνοι χάραξης πολιτικής και το κοινό συζητούν όλο και περισσότερο ένα ευρύ φάσμα σημαντικών και επειγόντων κινδύνων από την ΤΝ.

Ακόμα κι έτσι, μπορεί να είναι δύσκολο να εκφραστούν ανησυχίες για ορισμένους από τους πιο σοβαρούς κινδύνους της προηγμένης τεχνητής νοημοσύνης. Αυτή η σαφής δήλωση σκοπεύει να ξεπεράσει αυτό το εμπόδιο και να ανοίξει τη συζήτηση.

Σκοπός της είναι επίσης να δημοσιοποιήσει τον αυξανόμενο αριθμό ειδικών και δημόσιων προσώπων που λαμβάνουν επίσης σοβαρά υπόψη τους ορισμένους από τους σοβαρότερους κινδύνους της προηγμένης ΤΝ».

Γνωστές προσωπικότητες και ερευνητές εκφράζουν ανησυχίες

Ο αριθμός των προσωπικοτήτων που υπογράφουν τη δήλωση είναι συγκλονιστικός, καθώς μεταξύ αυτών είναι ο Sam Altman, CEO της OpenAI, γνωστός από το ChatGPT, ο Demis Hasabis, CEO της Google DeepMind και ο Dario Amontei της Anthropic- καθώς και ο Geoffrey Hinton, ο οποίος έχει χαρακτηριστεί ως «νονός» της Τεχνητής Νοημοσύνης και έχει εκδώσει προειδοποιήσεις στο πρόσφατο παρελθόν, και ο Joshua Bengio, ένας άλλος «νονός» της Τεχνητής Νοημοσύνης: Ο Hinton και ο Bengio ήταν στην πραγματικότητα οι τρεις «νονοί» που έλαβαν το βραβείο Turing το 2018 για το έργο τους στη βαθιά μάθηση. Επίσης, στον κατάλογο παρατηρεί κανείς ερευνητές από πολλά πανεπιστήμια, από το Χάρβαρντ μέχρι το Πανεπιστήμιο Chinghua στην Κίνα.

Η εντατικοποιημένη συζήτηση και οι ανησυχίες

Η συζήτηση σχετικά με την Τεχνητή Νοημοσύνη και το τι μπορεί να συνεπάγεται για το μέλλον (και το παρόν) της ανθρωπότητας έχει ενταθεί πολύ μετά το «ντεμπούτο» του ChatGPT και την έναρξη αυτού που θεωρείται ως «αγώνας δρόμου» στον τομέα αυτό από τους γίγαντες της «Μεγάλης Τεχνολογίας».

Επίσης, ο πόλεμος στην Ουκρανία, με την εκτεταμένη χρήση μη επανδρωμένων αεροσκαφών (drones), έχει εγείρει ανησυχίες σχετικά με τον ρόλο των μη επανδρωμένων, ενδεχομένως αυτόνομων μέσων στον πόλεμο- ενώ πολλοί ανησυχούν για τις αλλαγές που θα επιφέρει στην αγορά εργασίας/απασχόλησης η εξάπλωση της χρήσης εργαλείων και τεχνολογιών που χρησιμοποιούν Τεχνητή Νοημοσύνη.

Αντίθετες απόψεις και πραγματικά ζητήματα

Αίσθηση προκάλεσαν και οι επανειλημμένες αναφορές του δισεκατομμυριούχου Elon Musk στο θέμα της τεχνητής νοημοσύνης, καθώς ο ίδιος έχει μιλήσει εδώ και καιρό για αυτό που θα μπορούσε να αποτελέσει σοβαρό κίνδυνο.

Ωστόσο, δεν φαίνεται να συμμερίζονται όλοι αυτές τις ανησυχίες: Σημειώνεται ότι ο καθηγητής Jan LeCun, ο οποίος είναι ο τρίτος «νονός» της τεχνητής νοημοσύνης και εργάζεται στη Meta (Facebook), έχει δηλώσει ότι οι προειδοποιήσεις αυτές είναι υπερβολικές, ενώ δεν είναι λίγοι οι ειδικοί που πιστεύουν ότι οι φόβοι για την εξαφάνιση της ανθρωπότητας από την τεχνητή νοημοσύνη είναι εξωπραγματικοί και αποσπούν την προσοχή από τα πραγματικά ζητήματα, όπως η προκατάληψη των συστημάτων, τα οποία αποτελούν ήδη πρόβλημα.

Απρόβλεπτες συνέπειες και δυνητικοί κίνδυνοι

Οι πρόσφατες εξελίξεις στην τεχνητή νοημοσύνη έχουν δημιουργήσει εργαλεία που, σύμφωνα με τους υποστηρικτές της, μπορούν να βοηθήσουν σε ένα τεράστιο φάσμα δραστηριοτήτων – από την ιατρική διάγνωση έως τη σύνταξη νομικών κειμένων.

Ωστόσο, πολλοί ανησυχούν ότι οι ίδιες αυτές τεχνολογίες μπορούν να οδηγήσουν, μεταξύ άλλων, σε παραβιάσεις της ιδιωτικής ζωής, να χρησιμοποιηθούν σε εκστρατείες παραπληροφόρησης και, σε άλλες περιπτώσεις, να οδηγήσουν ακόμη και σε επεισόδια – κρίσεις που προκαλούνται από «έξυπνες» μηχανές που λειτουργούν από μόνες τους.

Πηγή.

To top