Ένα νέο σύστημα τεχνητής νοημοσύνης με την ονομασία Predictim βοηθά τους γονείς που ψάχνουν μπέιμπι-σίτερ εμπιστοσύνης, να βρουν το πρόσωπο με τις κατάλληλες προδιαγραφές, γλιτώνοντας τους από το να κάνουν οι ίδιοι το ψάξιμο και από τον κίνδυνο να τους εξαπατήσει η διαίσθησή τους.
Το «έξυπνο» λογισμικό βασίζεται κυρίως στις χιλιάδες αναρτήσεις που εδώ και χρόνια έχουν κάνει οι υποψήφιες στα κοινωνικά δίκτυα (Facebook, Instagram, Twitter κ.α.), τις οποίες αναλύει σε βάθος χρόνου για να δημιουργήσει ένα «προφίλ» και να εντοπίσει υποψήφιες με ύποπτο παρελθόν όπως χρήση ναρκωτικών, εκφοβισμό και μπλεξίματα με την αστυνομία, αλλά επίσης με κακή ψυχική διάθεση, έλλειψη ευγένειας και εν γένει ‘αρνητικό’ πνεύμα.
Η online υπηρεσία Predictim αξιολογεί ψυχομετρικά την προσωπικότητα κάθε υποψήφιας μπέιμπι-σίτερ και μετά προσφέρει στους γονείς-πελάτες αυτόματα μια «βαθμολογία» για τις υποψήφιες. Μπορεί π.χ. να γνωμοδοτήσει ότι η τάδε μπέιμπι-σίτερ έχει μεν πολύ χαμηλό κίνδυνο να κάνει κρυφή χρήση ναρκωτικών την ώρα που το παιδάκι κοιμάται, αλλά έχει μεσαίο κίνδυνο να το κακοποιεί με τη συμπεριφορά της.
Το σύστημα δεν εξηγεί -όπως συμβαίνει συχνά με την τεχνητή νοημοσύνη- πώς και γιατί παίρνει τις αποφάσεις του, οπότε οι γονείς καλούνται να το εμπιστευθούν περισσότερο από ό,τι τις συστάσεις των γνωστών τους για μία μπέιμπι-σίτερ ή τη δική τους διαίσθηση από την προσωπική συνέντευξη μαζί της.
Το Predictim ανήκει στην ευρύτερη και ολοένα πιο ευρέως χρησιμοποιούμενη κατηγορία «έξυπνης» επεμβατικής τεχνολογίας, που βοηθά τις εταιρείες και τους οργανισμούς να αξιολογούν υποψηφίους προς πρόσληψη, αναλύοντας -πέρα από το βιογραφικό του- τη φωνή του υποψηφίου, τις εκφράσεις του προσώπου του και το online ιστορικό του, έτσι ώστε να έλθουν στο φως τυχόν σκοτεινές πτυχές προσωπικότητας και της ιδιωτικής ζωής του.
Οι υποστηρικτές αυτών των συστημάτων προβάλλουν τη μεγαλύτερη αντικειμενικότητα και διαφάνεια που διασφαλίζουν, αλλά οι επικριτές τους θεωρούν ότι παίρνουν αυτοματοποιημένες αποφάσεις που αλλάζουν τις ζωές των ανθρώπων, χωρίς να μπορεί κανείς να ελέγξει την αξιοπιστία τους και κατά πόσο μεροληπτούν ή σφάλλουν. Εν ολίγοις, τονίζουν ότι η τεχνητή νοημοσύνη προωθεί ένα σύγχρονο «πίστευε και μη ερεύνα…».
Αυτό οφείλεται στο ότι οι αλγόριθμοι του Predictim και των συναφών συστημάτων αποτελούν ένα «μαύρο κουτί», όσον αφορά τη λειτουργία τους, ακόμη και για τους ίδιους τους δημιουργούς αυτών των αλγόριθμων, οι οποίοι αδυνατούν να πουν γιατί το σύστημα πήρε αυτή την απόφαση και όχι την άλλη.
Για παράδειγμα, ποιος εγγυάται ότι το Predictim δεν αντανακλά τις -συχνά ασυνείδητες- προσωπικές προκαταλήψεις του δημιουργού του σχετικά με το πώς πρέπει να μιλάει, να ντύνεται και γενικά να συμπεριφέρεται μια μπέιμπι-σίτερ; Μάλιστα, αν μια μπέιμπι-σίτερ ή άλλος υποψήφιος εργαζόμενος δεν συναινέσει να κριθεί από ένα σύστημα τεχνητής νοημοσύνης, τότε αυτομάτως δημιουργεί υποψίες ότι κάτι κρύβει και βρίσκεται σε μειονεκτική θέση σε σχέση με άλλους υποψηφίους.
«Υπάρχει αυτή η τρελή βιασύνη να εκμεταλλευθούμε την τεχνητή νοημοσύνη για να πάρουμε όλων των ειδών τις αποφάσεις, χωρίς όμως να διασφαλίζουμε ότι αυτή δίνει λογαριασμό στα ανθρώπινα όντα», δήλωσε στην «Ουάσιγκτον Ποστ» ο Τζεφ Τσέστερ, διευθυντής του Κέντρου για την Ψηφιακή Δημοκρατία στις ΗΠΑ.
Ο Σαλ Πάρσα, συνιδρυτής και διευθύνων σύμβουλος της Predictim, η οποία ιδρύθηκε τον προηγούμενο μήνα από το Πανεπιστήμιο της Καλιφόρνια-Μπέρκλεϊ, στο πλαίσιο της θερμοκοιτίδας νέων τεχνολογικών επιχειρήσεων SkyDeck, αντιτείνει ότι το σύστημα λαμβάνει ηθικές αποφάσεις και επιμένει ότι ο κίνδυνος πρόσληψης μιας βίαιης ή προβληματικής μπέιμπι-σίτερ μειώνεται σοβαρά χάρη στην τεχνητή νοημοσύνη, που έρχεται ως αρωγός στους γονείς.
Όπως λέει, «αν κάνετε μια απλή αναζήτηση στη Google για μπέιμπι-σίτερ που έχουν κακοποιήσει παιδιά, θα βρείτε αμέσως εκατοντάδες περιπτώσεις. Υπάρχουν εκεί έξω τόσοι άνθρωποι που είτε έχουν ψυχικά προβλήματα, είτε απλώς έχουν γεννηθεί κακοί. Ο στόχος μας είναι να κάνουμε οτιδήποτε για να τους σταματήσουμε».
Το σύστημα της Predictim κοστίζει στους γονείς από 25 δολάρια. Η υποψήφια μπέιμπι-σίτερ πρέπει να δώσει το όνομά της, το e-mail της και να συγκατατεθεί εγγράφως ότι επιτρέπει ευρεία πρόσβαση στους λογαριασμούς της στα μέσα κοινωνικής δικτύωσης. Μπορεί ασφαλώς να αρνηθεί, αλλά τότε οι γονείς θα ενημερωθούν για την άρνησή της…
Το σύστημα χρησιμοποιεί αλγόριθμους επεξεργασίας κειμένου, ομιλίας και εικόνας για να «σαρώσει» τους λογαριασμούς των υποψηφίων. Το τελικό αποτέλεσμα με τη βαθμολογία παραδίδεται εμπιστευτικά μόνο στους γονείς-πελάτες, που δεν είναι υποχρεωμένοι να μοιρασθούν με τη μπέιμπι-σίτερ την αξιολόγηση. Η απόφαση για την πρόσληψη είναι σε τελευταία ανάλυση δική τους και, αν θέλουν, μπορούν να παραβλέψουν την κρίση του Predictim (αλλά από τη στιγμή που πλήρωσαν, μάλλον δύσκολα θα συμβεί αυτό…).
Η διαφημιστική καμπάνια της Predictim εστιάζει στο ότι μπορεί να φέρει στο φως τα μυστικά μιας μπέιμπι-σίτερ και έτσι «να αποτρέψει τον εφιάλτη κάθε γονιού», όπως λέει. Αλλά οι επικριτές ανησυχούν ότι εκμεταλλεύεται τις εύλογες φοβίες των γονιών, για να πουλήσει μια υπηρεσία αμφίβολης αξιοπιστίας.
Η Τζέιμι Ουίλιαμς της οργάνωσης υπέρ των ατομικών ελευθεριών Electronics Frontier Foundation επισημαίνει ότι ακόμη και γίγαντες όπως το Facebook δυσκολεύονται να δημιουργήσουν αλγόριθμους που να μπορούν να ξεχωρίσουν κάθε φορά μια φράση μίσους από ένα άκακο σχόλιο. Συνεπώς, κάλλιστα μπορεί το Predictim να παρεξηγεί το περιεχόμενο των αναρτήσεων μιας μπέιμπι-σίτερ (ιδίως αν αυτή είναι πολύ νέα και συχνά κάνει σαρκαστικά αστεία όπως οι συνομήλικοί της) και έτσι να τη «χαντακώνει» χωρίς λόγο.