Την μέγιστη αποδοτικότητα από το εργατικό δυναμικό τους αναζητούν όλοι οι εργοδότες, την ίδια στιγμή που προσπαθούν να καταλάβουν ποια είναι η γνώμη τους για πολιτικές και σχεδιασμούς που επηρεάζουν τις επιχειρήσεις τους. Όπως αποδεικνύει, όμως, η πραγματικότητα, δεν αρκούν αυτά – η τεχνητή νοημοσύνη θέλει να έχει πρόσβαση και τις… μύχιες σκέψεις τους.
Δεν είναι ίσως τυχαίο το γεγονός πως πλέον σε αρκετές μεγάλες αμερικανικές και ευρωπαϊκές πολυεθνικές, υπάρχει σημαντική πιθανότητα η τεχνητή νοημοσύνη να αναλύει εσωτερικά μηνύματά υπαλλήλων σε δημοφιλείς εφαρμογές.
Μια είδηση που από μόνης της αρκεί για να φέρει στο μυαλό εικόνες δυστοπικότητας βγαλμένες από το «1984» του Τζορτζ Όργουελ. Μήπως όμως όλο αυτό αφορά κάτι άλλο από το προφανές;
Ήδη μεγάλοι εργοδότες όπως η Walmart, η Delta Air Lines, η Τα-Mobile, η Chevron, η Starbucks, η Nestle και η AstraZeneca, αποφάσισαν να στραφούν στην Aware, την startup με έδρα το Columbus, στο Οχάιο, για να παρακολουθούν τις συνομιλίες των υπαλλήλων τους, σύμφωνα με όσα αποκάλυψε το CNBC.
Διαβάζοντας τα συναισθήματα
Ο Τζεφ Σούμαν, συνιδρυτής και Διευθύνων Σύμβουλός της λέει ότι η τεχνητή νοημοσύνη βοηθά τις εταιρείες να «κατανοήσουν τον κίνδυνο μέσα στις επικοινωνίες τους», διαβάζοντας τα συναισθήματα των εργαζομένων σε πραγματικό χρόνο.
Χρησιμοποιώντας τα ανώνυμα δεδομένα στο προϊόν ανάλυσης της Aware, οι εταιρείες μπορούν να δουν πώς αντιδρούν κάποιοι υπάλληλοι σε κάποια νέα εταιρική πολιτική ή καμπάνια μάρκετινγκ, σύμφωνα με τον Σούμαν. Και όχι μόνο. Τα μοντέλα της Aware, μπορούν επίσης να εντοπίσουν εκφοβισμό, παρενόχληση, διακρίσεις, μη συμμόρφωση, πορνογραφία και άλλες παραβατικές συμπεριφορές.
Το εργαλείο ανάλυσης της Aware – αυτό που παρακολουθεί το συναίσθημα και την τοξικότητα των εργαζομένων – δεν έχει τη δυνατότητα να επισημαίνει ονόματα μεμονωμένων υπαλλήλων.
Ωστόσο, το ξεχωριστό εργαλείο eDiscovery μπορεί, να διακρίνει περιπτώσεις ακραίων απειλών ή άλλων συμπεριφορών κινδύνου, σύμφωνα με όσα θέλει να προκαθορίσει ο κάθε πελάτης, πρόσθεσε.
Στο βάθος, οι κυβερνοαπειλές
Η Aware ανέφερε ότι η Walmart, η T-Mobile, η Chevron και η Starbucks χρησιμοποιούν ήδη την τεχνολογία της για τον κίνδυνο κυβερνοαπειλών, μια δραστηριότητα που αντιπροσωπεύει περίπου το 80% των εργασιών της εταιρείας.
Ανάλογα η AstraZeneca ανέφερε στο CNBC πως χρησιμοποιεί το προϊόν eDiscovery για λόγους ασφαλείας, χωρίς ωστόσο να χρησιμοποιεί αναλυτικά στοιχεία για την παρακολούθηση συναισθημάτων ή τοξικότητας. Η Delta ανέφερε τη χρησιμότητα των analytics και του eDiscovery για την παρακολούθηση των τάσεων και του συναισθήματος ως τρόπο συλλογής σχολίων από υπαλλήλους και άλλους ενδιαφερόμενους φορείς, όπως και για τη διατήρηση νομικών αρχείων στην πλατφόρμα κοινωνικής δικτύωσης της.
Ένα ηθικό πρόβλημα
Η Γιούτα Ουίλαμς, συνιδρυτής της ΜΚΟ Humane Intelligence, ωστόσο μίλησε για το πώς η AI προσθέτει μια νέα και δυνητικά προβληματική πτυχή στα λεγόμενα προγράμματα ρίσκου εμπιστευτικών πληροφοριών.
«Παρακολούθηση τοξικότητας σε πραγματικό χρόνο»
Ο Σούμαν ξεκίνησε την Aware το 2017, αλλά δεν ήταν η πρώτη «οργουελική» εταιρεία που ίδρυσε. Το 2005, είχε ιδρύσει την εταιρεία BigBrotherLite.com. που ανέπτυξε λογισμικό που «βελτίωσε την ψηφιακή και κινητή εμπειρία προβολής» της σειράς reality του CBS «Big Brother». Στο κλασικό μυθιστόρημα του Όργουελ «1984», ο Big Brother ήταν ο ηγέτης ολοκληρωτικού καθεστώτος, στο οποίο οι πολίτες βρίσκονταν υπό αέναη παρακολούθηση.
Το διαφορετικό Aware
Κάθε χρόνο, η εταιρεία δημοσιεύει μια έκθεση που συγκεντρώνει πληροφορίες από δισεκατομμύρια (6,5 δισεκατομμύρια το 2023) μηνυμάτων, καταγράφοντας τους αντιληπτούς παράγοντες κινδύνου και τις βαθμολογίες συναισθημάτων στο χώρο εργασίας.
Η Aware επιβεβαίωσε στο CNBC ότι χρησιμοποιεί δεδομένα από εταιρικούς πελάτες της για να εκπαιδεύσει τα μοντέλα μηχανικής μάθησης.
Όταν ένας νέος πελάτης εγγράφεται στο εργαλείο ανάλυσης, χρειάζονται τα μοντέλα AI της Aware περίπου δύο εβδομάδες για να «εκπαιδευτούν» στα μοτίβα εντός της εταιρείας. Δεν λαμβάνει ονόματα ανθρώπων, για να προστατεύσει το απόρρητο, λέει ο Σούμαν.
Αλλά το εργαλείο eDiscovery της Aware λειτουργεί διαφορετικά. Μια εταιρεία μπορεί να δώσει πρόσβαση σε ονόματα εργαζομένων αν θεωρηθούν «ακραία απειλή» σύμφωνα με δοθέντα κριτήρια, η οποία δίνει εντολή στην τεχνολογία της Aware να ανασύρει το όνομα ενός υπαλλήλου.
Ο πελάτης θα μπορούσε επίσης να το συνδυάσει με αναφορές που βασίζονται σε φράσεις, αναφορές, κλπ. Εάν η ΑΙ ανιχνεύσει παραβιάσεις των καθορισμένων πολιτικών μιας εταιρείας, θα μπορούσε να προωθήσει το όνομα του υπαλλήλου στην αντίστοιχη υπηρεσία, πχ HR.
Ο Σούμαν ανέφερε ότι παρόμοιες δυνατότητες υπάρχουν ήδη σήμερα, αλλά η βασική διαφορά είναι ότι η Aware και τα μοντέλα τεχνητής νοημοσύνης της δεν παίρνουν αποφάσεις, αλλά απλώς διευκολύνουν τον έλεγχο αυτού του νέου συνόλου δεδομένων για τον εντοπισμό πιθανών κινδύνων ή παραβιάσεων πολιτικής.