Η αλματώδης ανάπτυξη αυτών των τεχνολογιών είναι που οδήγησε τον «νονό της Τεχνητής Νοημοσύνης», όπως αποκαλούν τον Χίντον, να παραιτηθεί αυτή την εβδομάδα από την Google, ώστε να μπορεί στο εξής να μιλάει ελεύθερα. Αυτό που τον ανησυχεί, είπε στους «New York Times», είναι ότι το Διαδίκτυο θα πλημμυρίσει με ψεύτικες φωτογραφίες, βίντεο και κείμενα, με αποτέλεσμα να δημιουργηθεί ένας κόσμος όπου δεν θα ξέρεις πια τι είναι αλήθεια και τι ψέμα. «Πίστευα ότι θα χρειαστούν 30 με 50 χρόνια, ίσως και περισσότερα, για να φτάσουν τα συστήματα της Τεχνητής Νοημοσύνης να είναι ευφυέστερα από τον άνθρωπο», είπε. «Δεν το πιστεύω πια».
Ας πάμε πολύ πιο πίσω. To 1897, ο γερμανός χημικός Φέλιξ Χόφμαν ανακάλυψε σε διάστημα δύο εβδομάδων την ασπιρίνη και την ηρωίνη. Η τελευταία μάλιστα θεωρούνταν το ιδανικό φάρμακο, μέχρις ότου ανακαλύφθηκε ότι προκαλούσε εθισμό (στα αρχαία ελληνικά, άλλωστε, το «φάρμακον» ήταν τόσο το θεραπευτικό μέσο όσο και το ναρκωτικό, το δηλητήριο).
Αυτό δεν οδήγησε όμως στην απόρριψη της βιομηχανικής χημείας. Με την ίδια λογική, λέει ο ιταλός καθηγητής Πάολο Μπενάντι, θα πρέπει να κάνουμε διάκριση ανάμεσα στην Gpt, δηλαδή το μοντέλο, το χημικό μόριο που κάνει τα πράγματα να λειτουργούν, και την ChatGpt, τη βιομηχανική του εφαρμογή.
Ηθικολόγος, θεολόγος, φιλόσοφος και ειδικός για τις τεχνολογίες, ο Μπενάντι είναι πρόεδρος της ηθικής επιτροπής του ερευνητικού ινστιτούτου Centai. Η τεχνητή νοημοσύνη, λέει σε συνέντευξή του στην «Corriere della Sera», γεννιέται από διαδικασίες μαθηματικοποίησης που βελτιστοποιούν τις διαδικασίες και δίνουν απαντήσεις με κριτήριο την επιτυχία. Αν ρωτούσε παλιότερα κάποιος: «Πόνταρα 100 ευρώ στο κόκκινο στη ρουλέτα και κέρδισα. Εκανα καλά;», το σύστημα θα του απαντούσε, «Ναι, αφού 200 είναι καλύτερα από 100». Το εντυπωσιακό με την Gpt-4 είναι ότι προχωράει περισσότερο και λέει: «Η νίκη σου δεν συνδέεται με το ότι πόνταρες, είναι τυχαία. Αν λοιπόν ξαναπαίξεις, δεν είναι βέβαιο ότι θα κερδίσεις. Αν είσαι διατεθειμένος να αναλάβεις το ρίσκο, έχει καλώς, αλλιώς να μην το κάνεις».
Το πιο συνταρακτικό με αυτά τα συστήματα, λέει ο ιταλός καθηγητής, δεν είναι τελικά οι δυνάμεις που έχουν, αλλά το ότι συμπεριφέρονται σαν έναν άνθρωπο που συναντάς στον δρόμο. Αυτός είναι άλλωστε ο λόγος που για τη διαχείρισή τους δεν αρκεί η ηθική, που είναι το ήπιο δίκαιο, χρειάζονται και αρχές σκληρού δικαίου, όπως είναι ο οδικός κώδικας. Ο Μπενάντι χρησιμοποιεί εδώ τον όρο «αλγορηθική». Η Τεχνητή Νοημοσύνη θα μετατραπεί λοιπόν σε κάτι διαφορετικό, σε έναν Homo Sapiens Sapiens Sapiens; «Στη λογοτεχνία συναντάμε όλο και συχνότερα αφηγήσεις γύρω από τη νοσταλγία μιας εποχής όπου ήμασταν το τελευταίο, ή το μόνο, εχέφρον είδος. Ας σκεφτούμε τον Πινόκιο, τον Φρανκενστάιν, τον Ασίμοφ. Η τεχνητή νοημοσύνη έρχεται σε μια στιγμή έκλειψης του Θεού στον δημόσιο χώρο. Ο άνθρωπος έχει ανάγκη από τον Αλλο κι αν τον Αλλο δεν τον βρίσκει στον ουρανό, θα τον ψάξει άραγε στο cloud; Δεν έχω απάντηση. Αυτό που με τρομάζει περισσότερο όμως δεν είναι η τεχνητή νοημοσύνη, αλλά η φυσική βλακεία».
Με την Gpt-4 ήρθαν πάλι στην επιφάνεια σενάρια που θεωρούσαμε ως τώρα ότι ανήκουν στον χώρο της επιστημονικής φαντασίας: μπορεί οι μηχανές να αποκτήσουν αυτενέργεια; «Οι πληροφορικάριοι και αυτοί που αγαπούν τις γνωστικές επιστήμες του υπολογιστή», απαντά ο Μπενάντι, «χρησιμοποιούν έναν όρο που στη φιλοσοφία σημαίνει “ζωή” για να περιγράψουν κάτι που δεν ήξεραν πώς να ονομάσουν: ότι το σύστημα συμπεριφέρεται λιγάκι όπως θέλει. Διότι αν για έναν φιλόσοφο της φύσης η “αυτενέργεια” δείχνει ότι υπάρχει κάτι μοναδικό όπως η ζωή, για τους επιστήμονες αυτούς σημαίνει ότι δεν μπορούν κατά βάθος να ελέγξουν αυτό που κάνει το σύστημα».
Με ποιον είναι τελικά ο ιταλός θεολόγος, με τον Μπιλ Γκέιτς που μεγεθύνει τη δύναμη της Τεχνητής Νοημοσύνης ή με τον Ιλον Μασκ που ζητά να πατήσουμε φρένο επειδή το ανθρώπινο είδος κινδυνεύει να εξαλειφθεί; «Θα έλεγα ότι και οι δύο κάνουν ένα λάθος: κρίνουν εφάπαξ ένα φαινόμενο. Από τότε που κρατήσαμε στα χέρια μας ένα ρόπαλο, πριν από 70.000 χρόνια, αναρωτιόμαστε: πρόκειται για ένα εργαλείο που μας προσφέρει περισσότερες καρύδες ή για ένα όπλο που ανοίγει περισσότερα κεφάλια; Το ρόπαλο ήταν πάντα και εργαλείο και όπλο. Και όσο συμβαίνει κάτι τέτοιο, μια εφάπαξ κρίση δεν έχει νόημα. Το να είσαι ηθικολόγος σημαίνει ότι εξακολουθείς να θέτεις ερωτήματα και δεν ικανοποιείσαι με τις απαντήσεις που έχουν ήδη δοθεί».
Τζέφρι Χίντον (1947 – )
Η διαφορά με τα πυρηνικά όπλα
Κάποιοι λένε ότι ο βρετανοκαναδός γνωστικός ψυχολόγος εξαναγκάστηκε σε παραίτηση από την Google επειδή η Microsoft της πήρε την μπουκιά από το στόμα. Ο ίδιος παραδέχεται ότι στην απόφασή του έπαιξε ρόλο και η ηλικία του: «Είμαι 75 ετών, ήταν ώρα να αποσυρθώ». Ο βασικός λόγος όμως είναι ότι βλέπει την Google και τη Microsoft να παρασύρονται σε έναν παγκόσμιο ανταγωνισμό και θέλει να συμβάλει από ανεξάρτητη θέση στην επιβολή κάποιων περιορισμών. Μόνο που – όπως λέει στους «New York Times» – κάτι τέτοιο μπορεί να αποδειχθεί αδύνατο αφού, αντίθετα με τα πυρηνικά όπλα, δεν υπάρχει τρόπος να γνωρίζει κανείς αν μια εταιρεία ή μια χώρα – η Κίνα, για παράδειγμα – εργάζεται μυστικά πάνω σε μια τεχνολογία. Ο καλύτερος τρόπος είναι λοιπόν οι κορυφαίοι επιστήμονες του κόσμου να αναζητήσουν από κοινού τρόπους ελέγχου της τεχνολογίας.