Μία από τις παρενέργειες της τεχνητής νοημοσύνης γίνεται αντιληπτή έναν και πλέον χρόνο από το λανσάρισμα του ChatGPT και πλέον αρχίζει να γίνεται αντιληπτή μια νέα πραγματικότητα για το πώς θα μπορούσε να η μελλοντική καθημερινότητα: τα ανεπιθύμητα τεχνητής νοημοσύνης κατακλύζουν το ίντερνετ.
Όπως επισημαίνει σε άρθρο του ο Business Insider, το 404 Media, ένα νέο τεχνολογικό ιστολόγιο, έγραψε ότι έπρεπε να τροποποιήσει τον ιστότοπό του λόγω ανεπιθύμητων μηνυμάτων τεχνητής νοημοσύνης.
Πιο συγκεκριμένα, το ιστολόγιο παρατήρησε πρόσφατα ότι γραμμένες με τεχνητή νοημοσύνη δημοσιεύσεις ρουτίνας έχουν εμφανιστεί σε ιστότοπους ανεπιθύμητης αλληλογραφίας που είναι φιλικοί στη βελτιστοποίηση μηχανών αναζήτησης — μερικές φορές εμφανίζονται ακόμη και πάνω από τα πραγματικά άρθρα του 404 Media στα αποτελέσματα αναζήτησης της Google.
Οι απατεώνες, φυσικά, κερδίζουν χρήματα προβάλλοντας διαφημίσεις στις σελίδες που δημιουργούνται από AI, αναφέρει ο Business Insider.
Τα τρία παραδείγματα
Όπως αναφέρει το 404 Media «τις τελευταίες εβδομάδες πειραματίζεται με μια σειρά εργαλείων τεχνητής νοημοσύνης που υπόσχονται να «περιστρέφουν» άρθρα για τους χρήστες τους. Το ένα, που ονομάζεται SpinRewriter, επιτρέπει στους χρήστες να δημιουργούν 1.000 ελαφρώς διαφορετικές εκδόσεις του ίδιου άρθρου με ένα μόνο κλικ και να τις δημοσιεύουν αυτόματα σε όσους ιστότοπους WordPress θέλετε χρησιμοποιώντας μια πρόσθετη επί πληρωμή. Προσφέρει επίσης ένα εργαλείο που επιτρέπει στους χρήστες να διαχειρίζονται όσους ιστότοπους θέλουν από έναν ενιαίο πίνακα ελέγχου».
«Μια εταιρεία που ονομάζεται Byword διαφημίζει με χαρά τη “ληστεία SEO” που “έκλεψε 3,6 εκατομμύρια συνολική επισκεψιμότητα από έναν ανταγωνιστή” με αυτό το One Weird Trick (εξάγοντας τον χάρτη ιστότοπου του ανταγωνιστή και δημιουργώντας εκδόσεις 1.800 άρθρων που δημιουργήθηκαν με τεχνητή νοημοσύνη )», καταλήγει το ιστολόγιο.
Όπως σημειώνει ο Business Insider, αυτές οι εκδόσεις άρθρων που δημιουργούνται από την τεχνητή νοημοσύνη βλάπτουν τις ειδησεογραφικές επιχειρήσεις, κλέβοντας ουσιαστικά κλικ (και έσοδα) από τις επίσημες ιστοσελίδες που ξοδεύουν πραγματικό χρόνο και χρήματα για να κάνουν τις αναφορές.
Η δεύτερη ένδειξη ότι… κάτι δεν πάει καλά προέρχεται από το Wired το οποίο έγραψε ότι το The Hairpin, ένα δημοφιλές indie blog από τη δεκαετία του 2010, είχε καταληφθεί από έναν «κυνηγό κλικ» κατευθυνόμενο από AI, ο οποίος άφησε μεν μερικά από τα δημοφιλή άρθρα, αλλά αντικατέστησε τα ονόματα των γυναικών που τα έγραψαν με ανδρικά ονόματα.
Τέλος, στο πιο τοξικό άκρο του φάσματος ανεπιθύμητων μηνυμάτων μέσω AI, υπάρχουν… νεκρολογίες που δημιουργούνται από την τεχνητή νοημοσύνη, γεμάτες λάθη, που προκαλούν πραγματικό πόνο στις οικογένειες. Το 2021, πολύ πριν από το ChatGPT, το Wired ανέφερε ότι «πειρατές της νεκρολογίας» ξέσπασαν και αντέγραφαν ιστοσελίδες γραφείων τελετών.
Τώρα χρησιμοποιούν την τεχνητή νοημοσύνη για μια νέα και προσοδοφόρα τακτική δημιουργίας βίντεο YouTube και ανεπιθύμητων ιστότοπων, καταγράφοντας την επισκεψιμότητα αναζήτησης για άτομα που αναζητούν πληροφορίες για τον πρόσφατα αποθανόντα.
Οι New York Times ανέφεραν πρόσφατα για τον πόνο που προκάλεσαν αυτά τα βίντεο του YouTube που δημιουργήθηκαν από την τεχνητή νοημοσύνη σε μια οικογένεια που πενθούσε. Αφού ένας φοιτητής πέθανε πέφτοντας κατά λάθος στις γραμμές του μετρό της Νέας Υόρκης, γρήγορα εμφανίστηκαν βίντεο στο YouTube και άρθρα που δημιουργήθηκαν από την τεχνητή νοημοσύνη.
Οι απατεώνες ουσιαστικά παρατήρησαν μια έξαρση του ενδιαφέροντος αναζήτησης γύρω από το όνομα του νεαρού άνδρα και τη λέξη “υπόγειος σιδηρόδρομος”, συνδέθηκαν γρήγορα με αυτούς τους βασικούς όρους αναζήτησης, είπαν στην τεχνητή νοημοσύνη να γράψει μία νεκρολογία σε τόνο συνομιλίας και στη συνέχεια το έβαλαν σε έναν ιστότοπο, ανέφεραν οι Times.
Φυσικά, οι περισσότερες λεπτομέρειες ήταν λανθασμένες, αλλά αυτό δεν εμπόδισε τον ιστότοπο να εμφανίζεται στις αναζητήσεις Google.
Το κοινό σημείο
Και τα τρία παραδείγματα — οι αντιγραφείς του 404 Media, η κατάληψη του Hairpin και οι ψεύτικες νεκρολογίες — διαφέρουν μεταξύ τους μόνο στις λεπτομέρειες. Αλλά έχουν ένα κοινό σημείο, σύμφωνα με τον Business Insider: κακοί ηθοποιοί, απατεώνες και αποστολείς ανεπιθύμητης αλληλογραφίας προσπαθούν να κερδίσουν χρήματα χρησιμοποιώντας τεχνητή νοημοσύνη για να αντλήσουν τεράστιες ποσότητες περιεχομένου για να φτάσουν στην κορυφή των αποτελεσμάτων αναζήτησης Google.
Σε τελική ανάλυση, αυτό δεν είναι πρόβλημα μόνο για τους δημοσιογράφους που τους κλέβουν το περιεχόμενό τους ή οι οικογένειες που θρηνούν δικαιολογημένα αναστατώνονται από την ληστεία του ψηφιακού τάφου. Αυτό είναι ένα τεράστιο πρόβλημα για την Google. Καταλήγει να προσφέρει αποτελέσματα-σκουπίδια στους χρήστες, οι οποίοι έχουν όλο και περισσότερο άλλες ελκυστικές επιλογές — επίσης χάρη στην τεχνητή νοημοσύνη — για αναζήτηση.
Η Google δήλωσε στους New York Times ότι γνωρίζει για αυτές τις spam-νεκρολογίες και ότι εργαζόταν για να τα αντιμετωπίσει, σημειώνοντας μάλιστα ότι απέσυρε ορισμένα που παραβίασαν τις πολιτικές της.
Αλλά πολλές φορές οι απατεώνες είναι συχνά ένα βήμα μπροστά από τις πλατφόρμες – χαρακτηριστικό παράδειγμα της προηγούμενης εβδομάδας οι πρόστυχες εικόνες τις Τέιλορ Σουίφτ που δημιουργήθηκαν από τεχνητή νοημοσύνη και κατέκλυσαν το X (πρώην Twitter).
Η τεχνητή νοημοσύνη πρόκειται να αλλάξει ριζικά το διαδίκτυο, προς το καλύτερο ή το χειρότερο, καταλήγει ο Business Insider. Εναπόκειται στην Google και τις εταιρείες που κατασκευάζουν αυτά τα εργαλεία τεχνητής νοημοσύνης να φροντίσουν στην ελαχιστοποίηση των βλαβών που ενδέχεται να προκαλέσουν.
Πηγή: ΟΤ
- Γιατί κλιμακώνεται επικίνδυνα ο πόλεμος στην Ουκρανία – Η απόφαση Μπάιντεν με φόντο την προεδρία Τραμπ
- Η σφαγή του Jonestown στις ΗΠΑ: Πώς ένας άνθρωπος έπεισε 913 άτομα να αυτοκτονήσουν σε μια μέρα
- Έκρηξη στους Αμπελόκηπους: Σε απόγνωση οι ένοικοι της πολυκατοικίας – «Δεν υπάρχει ενημέρωση για την κρατική αρωγή»