Οι φόβοι για την τεχνητή νοημοσύνη (ΑΙ) έχουν στοιχειώσει την ανθρωπότητα από την αρχή της εποχής των υπολογιστών. Μέχρι τώρα αυτοί οι φόβοι επικεντρώνονταν σε μηχανές που χρησιμοποιούν φυσικά μέσα για να σκοτώσουν, να υποδουλώσουν ή να αντικαταστήσουν ανθρώπους. Όμως τα τελευταία δύο χρόνια έχουν εμφανιστεί νέα εργαλεία τεχνητής νοημοσύνης που απειλούν την επιβίωση του ανθρώπινου πολιτισμού από μια απροσδόκητη κατεύθυνση, αναφέρει σε άρθρο του στον Economist ο ιστορικός και φιλόσοφος Γιουβάλ Νώε Χαράρι.
«Η τεχνητή νοημοσύνη έχει αποκτήσει μερικές αξιοσημείωτες ικανότητες χειρισμού και δημιουργίας γλώσσας, είτε με λέξεις, ήχους ή εικόνες. Με τον τρόπο αυτόν έχει χακάρει το λειτουργικό σύστημα του πολιτισμού μας», σημειώνει ο Χαράρι.
«Η γλώσσα είναι το υλικό από το οποίο αποτελείται σχεδόν όλος ο ανθρώπινος πολιτισμός. Τα ανθρώπινα δικαιώματα, για παράδειγμα, δεν είναι εγγεγραμμένα στο DNA μας. Μάλλον, είναι πολιτιστικά αντικείμενα που δημιουργήσαμε λέγοντας ιστορίες και γράφοντας νόμους. Οι θεοί δεν είναι φυσικές πραγματικότητες. Μάλλον, είναι πολιτιστικά αντικείμενα που δημιουργήσαμε επινοώντας μύθους και γράφοντας «ιερές» γραφές».
Τα χρήματα, επίσης, είναι ένα πολιτιστικό τεχνούργημα, αναφέρει στο άρθρο του ο Χαράρι και συνεχίζει: «Τα τραπεζογραμμάτια είναι απλά πολύχρωμα κομμάτια χαρτιού και επί του παρόντος περισσότερο από το 90% των χρημάτων δεν είναι καν τραπεζογραμμάτια — είναι απλώς ψηφιακές πληροφορίες σε υπολογιστές. Αυτό που δίνει αξία στα χρήματα είναι οι ιστορίες που μας λένε γι’ αυτό τραπεζίτες, υπουργοί Οικονομικών και γκουρού κρυπτονομισμάτων. Ο Σαμ Μπάνκμαν-Φριντ, η Ελίζαμπεθ Χολμς και ο Μπέρνι Μάντοφ δεν ήταν ιδιαίτερα καλοί στη δημιουργία πραγματικής αξίας, αλλά ήταν όλοι εξαιρετικά ικανοί αφηγητές».
Μία AI καλύτερη από τον μέσο άνθρωπο
Τι θα συνέβαινε όταν μια μη ανθρώπινη νοημοσύνη γίνει καλύτερη από τον μέσο άνθρωπο στο να λέει ιστορίες, να συνθέτει μελωδίες, να σχεδιάζει εικόνες και να γράφει νόμους και γραφές; Όταν οι άνθρωποι σκέφτονται για το ChatGPT και άλλα νέα εργαλεία τεχνητής νοημοσύνης, συχνά προσελκύονται από παραδείγματα όπως τα παιδιά σχολικής ηλικίας που χρησιμοποιούν την τεχνητή νοημοσύνη για να γράψουν τα δοκίμιά τους. Τι θα συμβεί στο σχολικό σύστημα όταν τα παιδιά το κάνουν αυτό; Αλλά αυτού του είδους η ερώτηση χάνει τη μεγάλη εικόνα. Ξεχάστε τα σχολικά δοκίμια. Σκεφτείτε την επόμενη αμερικανική προεδρική κούρσα το 2024 και προσπαθήστε να φανταστείτε τον αντίκτυπο των εργαλείων τεχνητή νοημοσύνη που μπορούν να κατασκευαστούν για τη μαζική παραγωγή πολιτικού περιεχομένου, ψευδών ειδήσεων και «ιερών» γραφών για νέες αιρέσεις.
Τα τελευταία χρόνια η «αίρεση» qAnon έχει συσπειρωθεί γύρω από ανώνυμα διαδικτυακά μηνύματα, γνωστά ως “q drops”, σταγόνες q. Οι ακόλουθοι συνέλεξαν, λάτρεψαν και ερμήνευσαν αυτές τις σταγόνες q ως ιερά κείμενα, συνεχίζει ο Γιουβάλ Νόα Χαράρι. «Ενώ από όσο γνωρίζουμε όλα τα προηγούμενα q drops συνέθεταν άνθρωποι και τα bots απλώς βοηθούσαν στη διάδοσή τους, στο μέλλον μπορεί να δούμε τις πρώτες αιρέσεις στην ιστορία των οποίων τα ιερά κείμενα γράφτηκαν από μια μη ανθρώπινη νοημοσύνη. Οι θρησκείες σε όλη την ιστορία έχουν διεκδικήσει μια μη ανθρώπινη πηγή για τα ιερά τους βιβλία. Σύντομα αυτό μπορεί να γίνει πραγματικότητα», καταλήγει.
Σε ένα πιο πεζό επίπεδο, μπορεί σύντομα να βρεθούμε να διεξάγουμε μακροχρόνιες διαδικτυακές συζητήσεις σχετικά με την άμβλωση, την κλιματική αλλαγή ή τη ρωσική εισβολή στην Ουκρανία με οντότητες που πιστεύουμε ότι είναι άνθρωποι – αλλά στην πραγματικότητα είναι τεχνητή νοημοσύνη, διαπιστώνει ο Χαράρι σημειώνοντας ότι «το πρόβλημά μας είναι ότι είναι εντελώς άσκοπο για εμάς να ξοδεύουμε χρόνο προσπαθώντας να αλλάξουμε τις δηλωμένες απόψεις ενός bot τεχνητής νοημοσύνης, ενώ η τεχνητή νοημοσύνη θα μπορούσε να τελειοποιήσει τα μηνύματά του με τόση ακρίβεια ώστε να έχει πολλές πιθανότητες να μας επηρεάσει».
Δεξιοτεχνία στη χρήση της γλώσσας
Μέσω της δεξιοτεχνίας της στη γλώσσα, θα μπορούσε ακόμη και να δημιουργήσει στενές σχέσεις με τους ανθρώπους και να χρησιμοποιήσει τη δύναμη της οικειότητας για να αλλάξει τις απόψεις και τις κοσμοθεωρίες μας, τονίζει ο Χαράρι, αν και δεν υπάρχει καμία ένδειξη ότι η τεχνητή νοημοσύνη έχει κάποια συνείδηση ή συναισθήματα, για να καλλιεργηθεί η ψεύτικη οικειότητα με τους ανθρώπους αρκεί η τεχνητή νοημοσύνη να μπορεί να τους κάνει να αισθάνονται συναισθηματικά δεμένοι μαζί της.
Στη συνέχεια του άρθρου αναφέρει την περίπτωση του μηχανικού της Google Μπλέικ Λεμόιν, ο οποίος τον Ιούνιο του 2022 ισχυρίστηκε δημόσια ότι το chatbot Lamda με τεχνητή νοημοσύνη, στο οποίο εργαζόταν, είχε γίνει ενσυνείδητο. Ο αμφιλεγόμενος ισχυρισμός του κόστισε τη δουλειά του. Το πιο ενδιαφέρον σε αυτό το επεισόδιο, σημειώνει ο Χαράρι, δεν ήταν ο ισχυρισμός του κ. Λεμόιν, ο οποίος ήταν μάλλον ψευδής. Αντίθετα, ήταν η προθυμία του να ρισκάρει την προσοδοφόρα δουλειά του για χάρη του chatbot τεχνητής νοημοσύνης. Εάν η τεχνητή νοημοσύνη μπορεί να επηρεάσει τους ανθρώπους να ρισκάρουν τις δουλειές τους για αυτήν, τι άλλο θα μπορούσε να τους παρακινήσει να κάνουν;
Σε μια πολιτική μάχη για «νόες και καρδιές»[σ.σ. όταν επιδιώκεται επικράτηση όχι με τη χρήση ισχύος, αλλά μέσω συναισθηματικών ή διανοητικών εκκλήσεων], η οικειότητα είναι το πιο αποτελεσματικό όπλο και μόλις απέκτησε την ικανότητα να παράγει μαζικά στενές σχέσεις με εκατομμύρια ανθρώπους. Όλοι γνωρίζουμε ότι την τελευταία δεκαετία τα μέσα κοινωνικής δικτύωσης έχουν γίνει πεδίο μάχης για τον έλεγχο της προσοχής των ανθρώπων. Με τη νέα γενιά τεχνητής νοημοσύνης, το μέτωπο της μάχης μετατοπίζεται από την προσοχή στην οικειότητα. Τι θα συμβεί στην ανθρώπινη κοινωνία και ψυχολογία όταν μια τεχνητή νοημοσύνη αντιπαλεύει με άλλη τεχνητή νοημοσύνη σε μια μάχη προσποιούμενες στενές σχέσεις με εμας, οι οποίες μπορούν στη συνέχεια να χρησιμοποιηθούν για να μας πείσουν να ψηφίσουμε συγκεκριμένους πολιτικούς ή να αγοράσουμε συγκεκριμένα προϊόντα;
Δημιουργία «ψευδούς οικειότητας»
Ακόμη και χωρίς τη δημιουργία «ψευδούς οικειότητας», σημειώνει ο Χαράρι, τα νέα εργαλεία τεχνητής νοημοσύνης θα είχαν τεράστια επιρροή στις απόψεις και τις κοσμοθεωρίες μας. Οι άνθρωποι μπορεί να φτάσουν να χρησιμοποιούν έναν και μόνο σύμβουλο τεχνητής νοημοσύνης ως μαντείο, παντογνώστη. Δεν είναι περίεργο που η Google είναι τρομοκρατημένη. Γιατί να μπω στον κόπο να ψάξω, όταν μπορώ απλώς να ρωτήσω το μαντείο; Οι βιομηχανίες ειδήσεων και διαφήμισης θα πρέπει επίσης να τρομοκρατούνται. Γιατί να διαβάζω μια εφημερίδα όταν μπορώ απλώς να ζητήσω τον χρησμό του μαντείου για να μάθω τα τελευταία νέα; Και ποιος είναι ο σκοπός των διαφημίσεων, όταν μπορώ απλώς να ζητήσω από το μαντείο να μου πει τι να αγοράσω;
Και ακόμη και αυτά τα σενάρια δεν αποτυπώνουν πραγματικά τη μεγάλη εικόνα, συνεχίζει το άρθρο στον Economist για να καταλήξει σε κάτι συνταρακτικό: «Αυτό για το οποίο μιλάμε είναι δυνητικά το τέλος της ανθρώπινης ιστορίας. Όχι το τέλος της ιστορίας, απλώς το τέλος του ανθρωποκυριαρχούμενου μέρους της. Η ιστορία είναι η αλληλεπίδραση μεταξύ βιολογίας και πολιτισμού. Ανάμεσα στις βιολογικές μας ανάγκες και επιθυμίες για πράγματα όπως το φαγητό και το σεξ, και τις πολιτιστικές μας δημιουργίες όπως οι θρησκείες και οι νόμοι. Η ιστορία είναι η διαδικασία μέσω της οποίας νόμοι και θρησκείες διαμορφώνουν το φαγητό και το σεξ».
Στη συνέχεια ο Χαράρι αναρωτιέται: «Τι θα συμβεί με την πορεία της ιστορίας όταν [η τεχνητή νοημοσύνη] αναλάβει τον πολιτισμό και αρχίσει να παράγει ιστορίες, μελωδίες, νόμους και θρησκείες; Προηγούμενα εργαλεία όπως το τυπογραφείο και το ραδιόφωνο βοήθησαν στη διάδοση των ανθρώπινων πολιτιστικών ιδεών, αλλά ποτέ δεν δημιούργησαν νέες δικές τους πολιτιστικές ιδέες. Η τεχνητή νοημοσύνη είναι κάτι θεμελιωδώς διαφορετικό. Μπορεί να δημιουργήσει εντελώς νέες ιδέες, εντελώς νέα κουλτούρα».
Μίμηση των ανθρώπινων προτύπων
Στην αρχή, η τεχνητή νοημοσύνη πιθανότατα θα μιμηθεί τα ανθρώπινα πρότυπα πάνω στα οποία εκπαιδεύτηκε στα σπάργανα, αναφέρει ο Χαράρι σημειώνοντας ότι «κάθε χρόνο που περνάει, η κουλτούρα της τεχνητής νοημοσύνης θα πηγαίνει με τόλμη εκεί που δεν έχει πάει κανένας άνθρωπος πριν [σ.σ. σλόγκαν από την τηλεοπτική σειρά Star Trek]. Για χιλιετίες τα ανθρώπινα όντα ζουν μέσα στα όνειρα άλλων ανθρώπων. Τις επόμενες δεκαετίες μπορεί να βρεθούμε να ζούμε μέσα στα όνειρα μιας εξωγήινης νοημοσύνης».
Ο φόβος της τεχνητής νοημοσύνης στοιχειώνει την ανθρωπότητα μόνο τις τελευταίες δεκαετίες, σημειώνει ο ιστορικός και φιλόσοφος. «Αλλά για χιλιάδες χρόνια οι άνθρωποι στοιχειώνονται από έναν πολύ βαθύτερο φόβο. Πάντα αναγνωρίζαμε τη δύναμη των αφηγημάτων και των εικόνων να χειραγωγούν το μυαλό μας και να δημιουργούν ψευδαισθήσεις. Κατά συνέπεια, από την αρχαιότητα οι άνθρωποι φοβούνταν ότι θα παγιδευτούν σε έναν κόσμο ψευδαισθήσεων», καταλήγει.
Τον 17ο αιώνα ο Ρενέ Ντεκάρτ (Καρτέσιος) φοβόταν ότι ίσως ένας κακόβουλος δαίμονας τον παγίδευε σε έναν κόσμο ψευδαισθήσεων, δημιουργώντας όλα όσα έβλεπε και άκουγε. Στην αρχαία Ελλάδα ο Πλάτων διηγήθηκε την περίφημη Αλληγορία του Σπηλαίου, στην οποία μια ομάδα ανθρώπων είναι αλυσοδεμένοι μέσα σε μια σπηλιά όλη τους τη ζωή, απέναντι από έναν κενό τοίχο, που είναι απλά μια ΟΘΟΝΗ. Σε αυτή την οθόνη βλέπουν να προβάλλονται διάφορες σκιές. Οι κρατούμενοι μπερδεύουν τις ψευδαισθήσεις που βλέπουν εκεί με την πραγματικότητα, αναφέρει με νόημα ο Χαράρι.
Συνεχίζοντας πηγαίνει στην αρχαία Ινδία όπου βουδιστές και ινδουιστές σοφοί επεσήμαναν ότι όλοι οι άνθρωποι ζούσαν παγιδευμένοι μέσα στους Μάγια – τον κόσμο των ψευδαισθήσεων. «Αυτό που συνήθως θεωρούμε πραγματικότητα είναι συχνά απλώς μυθοπλασίες στο μυαλό μας. Οι άνθρωποι μπορεί να διεξάγουν ολόκληρους πολέμους, σκοτώνοντας άλλους ανθρώπους και πρόθυμοι να σκοτωθούν οι ίδιοι, λόγω της πίστης τους σε αυτή ή την άλλη ψευδαίσθηση».
«Η επανάσταση της τεχνητής νοημοσύνης μας φέρνει αντιμέτωπους με τον δαίμονα του Ντεκάρτ, με τη σπηλιά του Πλάτωνα, με τους Μάγια. Αν δεν είμαστε προσεκτικοί, μπορεί να παγιδευτούμε πίσω από ένα παραπέτασμα ψευδαισθήσεων, το οποίο δεν θα μπορούσαμε να σκίσουμε – ή ακόμα και να συνειδητοποιήσουμε ότι βρίσκεται εκεί», καταλήγει ο Χαράρι.
Η νέα ισχύς της τεχνητής νοημοσύνης
Φυσικά, η νέα ισχύς της τεχνητής νοημοσύνης θα μπορούσε να χρησιμοποιηθεί και για καλούς σκοπούς. Δεν θα σταθώ σε αυτό, λέει ο Χαράρι, γιατί οι άνθρωποι που το αναπτύσσουν μιλούν για αυτό αρκετά. Η δουλειά ιστορικών και φιλοσόφων όπως εγώ είναι να επισημαίνουν τους κινδύνους, τονίζει, αλλά σίγουρα, η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει με αμέτρητους τρόπους, από την εύρεση νέων θεραπειών για τον καρκίνο μέχρι την ανακάλυψη λύσεων για την οικολογική κρίση. Το ερώτημα που αντιμετωπίζουμε είναι πώς να διασφαλίσουμε ότι τα νέα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται για καλό και όχι για κακό. Για να γίνει αυτό, πρέπει πρώτα να εκτιμήσουμε τις πραγματικές δυνατότητες αυτών των εργαλείων.
Από το 1945 γνωρίζουμε ότι η πυρηνική τεχνολογία θα μπορούσε να παράγει φθηνή ενέργεια προς όφελος των ανθρώπων — αλλά θα μπορούσε επίσης να καταστρέψει τον ανθρώπινο πολιτισμό. Ως εκ τούτου, αναμορφώσαμε ολόκληρη τη διεθνή τάξη για να προστατεύσουμε την ανθρωπότητα και να διασφαλίσουμε ότι η πυρηνική τεχνολογία θα χρησιμοποιηθεί κυρίως για καλό. Τώρα πρέπει να παλέψουμε με ένα νέο όπλο μαζικής καταστροφής που μπορεί να εκμηδενίσει τον ψυχικό και κοινωνικό μας κόσμο.
Ρύθμιση νέων εργαλείων τεχνητής νοημοσύνης
Μπορούμε ακόμα να ρυθμίσουμε τα νέα εργαλεία τεχνητής νοημοσύνης, αλλά πρέπει να δράσουμε γρήγορα, τονίζει ο Χαράρι. Ενώ τα πυρηνικά δεν μπορούν να εφεύρουν πιο ισχυρά πυρηνικά, η τεχνητή νοημοσύνη μπορεί να παράγει μια εκθετικά πιο ισχυρή τεχνητή νοημοσύνη. Το πρώτο κρίσιμο βήμα είναι να απαιτηθούν αυστηροί έλεγχοι ασφάλειας πριν κυκλοφορήσουν ισχυρά εργαλεία τεχνητής νοημοσύνης στον δημόσιο τομέα, σημειώνει. Ακριβώς όπως μια φαρμακευτική εταιρεία δεν μπορεί να κυκλοφορήσει νέα φάρμακα πριν δοκιμάσει τις βραχυπρόθεσμες και μακροπρόθεσμες παρενέργειές τους, έτσι και οι εταιρείες τεχνολογίας δεν θα πρέπει να κυκλοφορούν νέα εργαλεία τεχνητής νοημοσύνης πριν γίνουν ασφαλή. Χρειαζόμαστε ένα ισοδύναμο της Υπηρεσίας Τροφίμων και Φαρμάκων για τη νέα τεχνολογία, και το χρειαζόμαστε χθες.
Η επιβράδυνση της ανάπτυξης από το κράτος τεχνητής νοημοσύνης δεν θα κάνει τις δημοκρατίες να υστερούν απέναντι σε πιο αδίστακτα αυταρχικά καθεστώτα; Ακριβώς το αντίθετο, απαντά ο ίδιος ο Χαράρι στο ερώτημα. Οι ανεξέλεγκτες αναπτύξεις τεχνητής νοημοσύνης θα δημιουργούσαν κοινωνικό χάος, το οποίο θα ωφελούσε τα αυταρχικά καθεστώτα και θα κατέστρεφε τις δημοκρατίες. Η δημοκρατία είναι συζήτηση και οι συνομιλίες βασίζονται στη γλώσσα. Όταν η τεχνητή νοημοσύνη χακάρει τη γλώσσα, θα μπορούσε να καταστρέψει την ικανότητά μας να έχουμε ουσιαστικές συνομιλίες, καταστρέφοντας έτσι τη δημοκρατία.
Μόλις ήρθε μια εξωγήινη νοημοσύνη, εδώ στη Γη. Δεν γνωρίζουμε πολλά για αυτό, εκτός από το ότι μπορεί να καταστρέψει τον πολιτισμό μας. Θα πρέπει να σταματήσουμε την ανεύθυνη ανάπτυξη εργαλείων τεχνητής νοημοσύνης στη δημόσια σφαίρα και να ρυθμίσουμε την τεχνητή νοημοσύνη πριν αυτή ρυθμίσει εμάς. Και ο πρώτος κανονισμός που θα πρότεινα είναι να καταστεί υποχρεωτικό για την τεχνητή νοημοσύνη να αποκαλύπτει ότι είναι τεχνητή νοημοσύνη. Αν συνομιλώ με κάποιον και δεν μπορώ να πω αν είναι άνθρωπος ή τεχνητή νοημοσύνη – αυτό είναι το τέλος της δημοκρατίας.
Κλείνοντας το άρθρο του στον Economist ο Χαράρι σημειώνει με μία περιπαικτική διάθεση «αυτό το κείμενο δημιουργήθηκε από άνθρωπο».
* Ο Γιουβάλ Νόα Χαράρι είναι ιστορικός, φιλόσοφος και συγγραφέας των «Sapiens», «Homo Deus» και της παιδικής σειράς «Unstoppable Us». Είναι λέκτορας στο τμήμα ιστορίας του Εβραϊκού Πανεπιστημίου της Ιερουσαλήμ και συνιδρυτής της Sapienship, μιας εταιρείας κοινωνικού αντίκτυπου.