Για μια στιγμή το διαδίκτυο ξεγελάστηκε. Μια εικόνα του Πάπα Φραγκίσκου με ένα λευκό, puffer jacket διαδόθηκε σαν πυρκαγιά στο διαδίκτυο.
Ωστόσο, η φιγούρα του ασυνήθιστα κομψού 86χρονου επικεφαλής του Βατικανού ήταν ψεύτικη. Η ψεύτικη εικόνα είχε δημιουργηθεί ως αστείο με τη χρήση τεχνολογίας τεχνητής νοημοσύνης, αλλά ήταν αρκετά ρεαλιστική ώστε να ξεγελάσει το ανεκπαίδευτο μάτι.
Οι απομιμήσεις τεχνητής νοημοσύνης εξαπλώνονται γρήγορα στα μέσα κοινωνικής δικτύωσης, καθώς η δημοτικότητα των εργαλείων μηχανικής μάθησης αυξάνεται κατακόρυφα. Εκτός από τις επινοημένες εικόνες, τα εργαλεία τεχνητής νοημοσύνης που βασίζονται σε chatbot, όπως το ChatGPT της OpenAI, το Bard της Google και το Bing της Microsoft, έχουν κατηγορηθεί ότι δημιουργούν μια νέα οδό για παραπληροφόρηση και ψευδείς ειδήσεις.
Τα «μορφωμένα» ρομπότ
Αυτά τα ρομπότ, εκπαιδευμένα με δισεκατομμύρια σελίδες άρθρων και εκατομμύρια βιβλία, μπορούν να παρέχουν πειστικές απαντήσεις που ακούγονται σαν ανθρώπινες, αλλά συχνά επινοούν γεγονότα – ένα φαινόμενο γνωστό στη βιομηχανία ως «παραισθήσεις». Ορισμένα μοντέλα τεχνητής νοημοσύνης έχουν μάθει ακόμη και να κωδικοποιούν, γεγονός που απελευθερώνει την πιθανότητα να χρησιμοποιηθούν για επιθέσεις στον κυβερνοχώρο.
Πέρα από τους φόβους για τις ψευδείς ειδήσεις και τις «βαθιά ψεύτικες» εικόνες, ένας αυξανόμενος αριθμός μελλοντολόγων ανησυχεί ότι η Τεχνητή Νοημοσύνη μετατρέπεται σε υπαρξιακή απειλή για την ανθρωπότητα.
Επιστήμονες της Microsoft τον περασμένο μήνα έφτασαν στο σημείο να ισχυριστούν ότι ένας αλγόριθμος, ο ChatGPT-4, είχε «αναλαμπές νοημοσύνης… ανθρώπινου επιπέδου». Ο Σαμ Άλτμαν, δημιουργός της OpenAI, της αμερικανικής νεοφυούς επιχείρησης που βρίσκεται πίσω από την τεχνολογία ChatGPT, παραδέχτηκε σε πρόσφατη συνέντευξή του: «Το φοβόμαστε λίγο αυτό».
Τώρα, μια αντίδραση κατά της λεγόμενης «γεννητικής τεχνητής νοημοσύνης» ετοιμάζεται καθώς τα βαριά ονόματα της Silicon Valley συγκρούονται για τους κινδύνους, και τις δυνητικά άπειρες ανταμοιβές, αυτού του νέου τεχνολογικού κύματος.
Μήπως να σταματούσε το αστείο;
Πριν από δύο εβδομάδες, περισσότεροι από 3.000 ερευνητές, επιστήμονες και επιχειρηματίες, μεταξύ των οποίων και ο Ίλον Μασκ, συνέταξαν μια ανοιχτή επιστολή με την οποία ζητούσαν εξάμηνη «παύση» στην ανάπτυξη του πιο προηγμένου εργαλείου chatbot του OpenAI, του λεγόμενου «μεγάλου γλωσσικού μοντέλου» ή LLM.
«Καλούμε όλα τα εργαστήρια τεχνητής νοημοσύνης να διακόψουν αμέσως για τουλάχιστον 6 μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρών από το GPT-4», έγραψαν οι επιστήμονες. «Εάν μια τέτοια παύση δεν μπορεί να τεθεί σε ισχύ γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ.
Ο Μασκ και άλλοι φοβούνται τις καταστροφικές δυνατότητες της τεχνητής νοημοσύνης -μια παντοδύναμη «τεχνητή γενική νοημοσύνη» θα μπορούσε να έχει βαθύτατους κινδύνους για την ανθρωπότητα.
Αλλά το αίτημά τους για εξάμηνη απαγόρευση της ανάπτυξης πιο προηγμένων μοντέλων τεχνητής νοημοσύνης αντιμετωπίστηκε με σκεπτικισμό. Ο Yann LeCun, ο κορυφαίος ειδικός σε θέματα τεχνητής νοημοσύνης στη μητρική εταιρεία του Facebook Meta, συνέκρινε την προσπάθεια με την προσπάθεια της Καθολικής Εκκλησίας να απαγορεύσει την τυπογραφία.
«Φανταστείτε τι θα μπορούσε να συμβεί αν οι κοινοί θνητοί αποκτούσαν πρόσβαση στα βιβλία», ανέφερε στο Twitter.
«Θα μπορούσαν να διαβάσουν μόνοι τους τη Βίβλο και η κοινωνία θα καταστρεφόταν».
Άλλοι επεσήμαναν ότι αρκετοί από τους υπογράφοντες την επιστολή έχουν τη δική τους ατζέντα. Ο Μασκ, ο οποίος έχει συγκρουστεί ανοιχτά με το OpenAI, επιδιώκει να αναπτύξει το δικό του αντίπαλο έργο. Τουλάχιστον δύο υπογράφοντες ήταν ερευνητές της DeepMind, η οποία ανήκει στην Google και εργάζεται πάνω στα δικά της AI bots. Οι σκεπτικιστές της τεχνητής νοημοσύνης έχουν προειδοποιήσει ότι η επιστολή ενστερνίζεται τη διαφημιστική εκστρατεία γύρω από την τελευταία τεχνολογία, με δηλώσεις όπως «θα πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να είναι περισσότερα, να μας ξεπεράσουν και να μας αντικαταστήσουν;».
Μαύρα κουτιά γεμάτα πληροφορίες
Πολλά από τα εργαλεία τεχνητής νοημοσύνης που αναπτύσσονται σήμερα είναι ουσιαστικά μαύρα κουτιά, με ελάχιστες δημόσιες πληροφορίες για το πώς λειτουργούν στην πραγματικότητα. Παρόλα αυτά, έχουν ήδη ενσωματωθεί σε εκατοντάδες επιχειρήσεις. Το ChatGPT της OpenAI, για παράδειγμα, αξιοποιείται από την εταιρεία πληρωμών Stripe, την τράπεζα Morgan Stanley και την εταιρεία Klarna που αγοράζει τώρα και πληρώνει αργότερα.
Ο Ρίτσαρντ Ρόμπινσον, ιδρυτής της νεοσύστατης νομικής εταιρείας RobinAI, η οποία συνεργάζεται με την εταιρεία τεχνητής νοημοσύνης Anthropic αξίας 4 δισ. δολαρίων, έναν άλλο αντίπαλο της OpenAI, λέει ότι ακόμη και οι κατασκευαστές μεγάλων γλωσσικών μοντέλων δεν κατανοούν πλήρως τον τρόπο λειτουργίας τους. Ωστόσο, προσθέτει: «Πιστεύω επίσης ότι υπάρχει πραγματικός κίνδυνος οι ρυθμιστικές αρχές να αντιδράσουν υπερβολικά σε αυτές τις εξελίξεις».
Οι κυβερνητικοί παρατηρητές ετοιμάζονται ήδη για μια μάχη με τις εταιρείες τεχνητής νοημοσύνης για την προστασία της ιδιωτικής ζωής και τις ανησυχίες για τα δεδομένα. Στην Ευρώπη, η Ιταλία απείλησε να απαγορεύσει την ChatGPT λόγω των ισχυρισμών ότι έχει συλλέξει πληροφορίες από όλο τον ιστό χωρίς να λαμβάνει υπόψη τα δικαιώματα των καταναλωτών.
Ο παρατηρητής προστασίας της ιδιωτικής ζωής της Ιταλίας δήλωσε ότι το bot δεν είχε «κανένα σύστημα επαλήθευσης της ηλικίας» για να σταματήσει την πρόσβαση από άτομα κάτω των 18 ετών. Σύμφωνα με τους ευρωπαϊκούς κανόνες για τα δεδομένα, η ρυθμιστική αρχή μπορεί να επιβάλει πρόστιμα ύψους έως και 20 εκατ. ευρώ στην OpenAI, εκτός εάν αλλάξει τις πρακτικές της όσον αφορά τα δεδομένα.
Τι γίνεται με τα προσωπικά δεδομένα;
Σε απάντηση, η OpenAI δήλωσε ότι σταμάτησε να προσφέρει το ChatGPT στην Ιταλία. «Πιστεύουμε ότι προσφέρουμε το ChatGPT σε συμμόρφωση με τον κώδικα GDPR και άλλους νόμους περί απορρήτου», δήλωσε η εταιρεία.
Η Γαλλία, η Ιρλανδία και η Γερμανία εξετάζουν παρόμοιες κανονιστικές κυρώσεις. Στη Βρετανία, το Γραφείο του Επιτρόπου Πληροφοριών δήλωσε: «Η Επιτροπή Προστασίας Δεδομένων της Πληροφορίας, η οποία είναι αρμόδια για την προστασία των πληροφοριών, έχει ήδη προβεί σε ελέγχους: «Πραγματικά δεν μπορεί να υπάρξει καμία δικαιολογία για να μην ληφθούν υπόψη οι επιπτώσεις της δημιουργικής τεχνητής νοημοσύνης στην προστασία της ιδιωτικής ζωής».
Ωστόσο, ενώ το Παρατηρητήριο για την προστασία της ιδιωτικής ζωής έχει σηκώσει κόκκινες σημαίες, μέχρι στιγμής το Ηνωμένο Βασίλειο δεν έχει προχωρήσει στο σημείο να απειλήσει με απαγόρευση της ChatGPT. Σε μια λευκή βίβλο για τη ρύθμιση της τεχνητής νοημοσύνης που δημοσιεύθηκε νωρίτερα αυτό το μήνα, η κυβέρνηση αποφάσισε να μην υπάρξει επίσημη ρυθμιστική αρχή για την τεχνητή νοημοσύνη. Ο Edward Machin, δικηγόρος στην εταιρεία Ropes & Gray, λέει: «Το Ηνωμένο Βασίλειο ακολουθεί το δικό του δρόμο, ακολουθεί μια πολύ πιο ήπια προσέγγιση».
Εκκλήσεις για μορατόριουμ
Ο Juan José López Murphy, επικεφαλής της AI και της επιστήμης των δεδομένων στην τεχνολογική εταιρεία Globant, λέει ότι υπάρχουν βραχυπρόθεσμα ζητήματα σχετικά με τη βοήθεια των ανθρώπων να εντοπίζουν βαθιά πλαστά ή ψευδή στοιχεία που παράγονται από chatbots. «Αυτή η τεχνολογία είναι ήδη εδώ, το πρόβλημα είναι η κατάχρηση», λέει.
«Η εκπαίδευση του ChatGPT σε ολόκληρο το διαδίκτυο είναι δυνητικά επικίνδυνη λόγω των προκαταλήψεων του διαδικτύου» λέει η ειδικός σε θέματα υπολογιστών Dame Wendy Hall. Υποστηρίζει ότι οι εκκλήσεις για μορατόριουμ στην ανάπτυξη θα είναι μάλλον αναποτελεσματικές, καθώς η Κίνα αναπτύσσει με ταχείς ρυθμούς τα δικά της εργαλεία.
Το OpenAI φαίνεται να αντιλαμβάνεται το ενδεχόμενο μιας καταστολής λέγοντας: «Η OpenAΙ είναι μια εταιρεία που δεν έχει καμία σχέση με το διαδίκτυο: «Πιστεύουμε ότι τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να υπόκεινται σε αυστηρές αξιολογήσεις ασφαλείας. Χρειάζεται ρύθμιση για να διασφαλιστεί η υιοθέτηση τέτοιων πρακτικών».
Ο Marc Warner, της Faculty AI με έδρα το Ηνωμένο Βασίλειο, η οποία συνεργάζεται με την OpenAI στην Ευρώπη, λέει ότι οι ρυθμιστικές αρχές θα πρέπει ακόμη να σχεδιάσουν με την πιθανότητα ότι μια υπερδύναμη τεχνητή νοημοσύνη μπορεί να είναι στον ορίζοντα.
«Φαίνεται ότι η γενική τεχνητή νοημοσύνη μπορεί να έρθει νωρίτερα από ό,τι πολλοί περιμένουν», λέει, προτρέποντας τα εργαστήρια να σταματήσουν την κούρσα ανταγωνισμού και να συνεργαστούν για την ασφάλεια.
«Πρέπει να έχουμε επίγνωση του τι θα μπορούσε να συμβεί στο μέλλον, πρέπει να σκεφτούμε τη ρύθμιση τώρα, ώστε να μην αναπτύξουμε ένα τέρας» λέει η Dame Wendy.
Οι ψεύτικες εικόνες του Πάπα μπορεί να φαίνονται πολύ μακριά από την κυριαρχία της τεχνητής νοημοσύνης. Αλλά, αν πιστέψουμε τους ειδικούς, το χάσμα έχει αρχίσει να μικραίνει.
*Με στοιχεία από thetelegraph.com