Η τεχνητή νοημοσύνη μπορεί να διαμορφώσει την κοινωνία προς το καλύτερο -αλλά άνθρωποι και μηχανές θα πρέπει να εργαστούν μαζί.

Μια από τις πρώτες εικόνες τεχνητής νοημοσύνης (AI) που συνάντησα ήταν ένα λευκό, φασματικό, εχθρικό, ασώματο κεφάλι. Ηταν στο παιχνίδι υπολογιστή Neuromancer, προγραμματισμένο από τον Troy Miles και βασισμένο στο κυβερνοπάνκ μυθιστόρημα του William Gibson. Αλλοι άνθρωποι μπορεί να έχουν συναντήσει για πρώτη φορά το HAL 9000 από το 2001: «A Space Odyssey» του Stanley Kubrik ή τη Samantha από το «Her’s» του Spike Jonze. Οι εικόνες από την ποπ κουλτούρα επηρεάζουν τις εντυπώσεις των ανθρώπων για την τεχνητή νοημοσύνη, αλλά η κουλτούρα έχει μια ακόμη πιο βαθιά σχέση με αυτήν. Αν υπάρχει κάτι που πρέπει να αφαιρέσουμε από αυτό το άρθρο, είναι η ιδέα ότι τα συστήματα AI δεν είναι αντικειμενικές μηχανές, αλλά βασίζονται στον ανθρώπινο πολιτισμό: τις αξίες, τους κανόνες, τις προτιμήσεις και τις συμπεριφορές μας στην κοινωνία. Αυτές οι πτυχές της κουλτούρας μας αντικατοπτρίζονται στον τρόπο κατασκευής των συστημάτων. Ετσι, αντί να προσπαθούμε να αποφασίσουμε εάν τα συστήματα AI είναι αντικειμενικά καλά ή κακά για την κοινωνία, πρέπει να τα σχεδιάσουμε ώστε να αντικατοπτρίζουν την ηθικά θετική κουλτούρα που πραγματικά θέλουμε.

Κατασκευάζουμε συστήματα τεχνητής νοημοσύνης και υπολογιστών για δημιουργική έκφραση, μάθηση και κοινωνικό καλό προσαρμόζοντας ουσιαστικά τις ιστορίες και τις εμπειρίες για τους ανθρώπους που τις χρησιμοποιούν. Υπάρχει μια μεγάλη ευκαιρία για την τεχνητή νοημοσύνη να έχει θετικό κοινωνικό αντίκτυπο μέσω αυτού του σχεδιασμού – αλλά για να γίνει αυτό, το πεδίο θα πρέπει να είναι πιο διεπιστημονικό, εκτιμώντας τους στόχους και τις γνώσεις των τεχνών, των ανθρωπιστικών και των κοινωνικών επιστημών.

Δεν προωθώ μια ουτοπική άποψη για την τεχνητή νοημοσύνη. Πιθανότατα έχετε ακούσει για πρόσφατες προσεγγίσεις όπως η «βαθιά μάθηση». Τέτοια συστήματα χρησιμοποιούν νευρωνικά δίκτυα και προσεγγίσεις που περιλαμβάνουν βαθιά μάθηση και μεγάλα γλωσσικά μοντέλα. Είναι δύσκολο για τους ανθρώπους να ερμηνεύσουν ακριβώς γιατί βγάζουν τις συγκεκριμένες εικόνες ή κείμενο (οι «λόγοι» του συστήματος είναι ένα μοτίβο λεπτομερώς συντονισμένων στατιστικών τιμών και αριθμητικών δεδομένων). Οταν οι διαδικασίες είναι αδιαφανείς και καθοδηγούνται από μεγάλα σύνολα δεδομένων που βασίζονται επίσης σε πολιτιστικές αξίες, είναι πιθανό οι άδικες προκαταλήψεις και άλλα κοινωνικά δεινά να επηρεάσουν τα συστήματα. Πρέπει να γνωρίζουμε και να σχεδιάζουμε προσεκτικά τις πολιτιστικές αξίες στις οποίες βασίζεται η τεχνητή νοημοσύνη. Με προσοχή, μπορούμε να οικοδομήσουμε συστήματα που βασίζονται σε πολλαπλές κοσμοθεωρίες – και να αντιμετωπίσουμε βασικά ηθικά ζητήματα στον σχεδιασμό, όπως η διαφάνεια και η ευκρίνεια. Η AI προσφέρει εξαιρετικές δημιουργικές ευκαιρίες. Αλλά οι δημιουργοί πρέπει να κάνουν κοινωνικο-πολιτισμική μελέτη που είναι τόσο δύσκολη όσο η τεχνική μηχανική αυτών των συστημάτων – και ίσως δυσκολότερη. Υπάρχουν φορές που ένα παράδειγμα εντολών και ελέγχου είναι κατάλληλο στους υπολογιστές. Ωστόσο, όταν εξετάζουμε την τεχνητή νοημοσύνη, υπάρχουν φορές που, αντί αυτού, πρέπει να προχωρήσουμε σε δημιουργικό, συνεργατικό αυτοσχεδιασμό.

Ο Ντ. Φοξ Χάρελ είναι καθηγητής Ψηφιακών Μέσων και Τεχνητής Νοημοσύνης στο Massachusetts Institute of Technology