SPOTLIGHTS

Τεχνητή νοημοσύνη με προκατάληψη: Οι γυναίκες λαμβάνουν κατώτερες συμβουλές από τα chatbots

Τεχνητή νοημοσύνη με προκατάληψη: Οι γυναίκες λαμβάνουν κατώτερες συμβουλές από τα chatbots
Νέα μελέτη αποκαλύπτει συστημικές έμφυλες ανισότητες στις απαντήσεις των γλωσσικών μοντέλων, θέτοντας σοβαρά ερωτήματα για τη χρήση τους σε διαδικασίες πρόσληψης και μισθολογικής διαπραγμάτευσης.

Μια αποκαλυπτική μελέτη από το Πανεπιστήμιο Εφαρμοσμένων Επιστημών Würzburg-Schweinfurt στη Γερμανία φέρνει στο φως μια ακόμα σκοτεινή πτυχή της τεχνητής νοημοσύνης: τη συστηματική έμφυλη μεροληψία εις βάρος των γυναικών. Σύμφωνα με τα ευρήματα, τα πιο προηγμένα γλωσσικά μοντέλα, όπως το ChatGPT-4o Mini, το Claude 3.5 Haiku και το Mixtral, τείνουν να δίνουν υποδεέστερες μισθολογικές οδηγίες στις γυναίκες σε σχέση με τους άνδρες, παρότι τα ερωτήματα που τέθηκαν ήταν απολύτως πανομοιότυπα ως προς την εμπειρία και το επαγγελματικό πλαίσιο.

Η μελέτη σχεδιάστηκε ώστε να προσομοιώσει συνθήκες διαπραγμάτευσης μισθού σε διαφορετικούς επαγγελματικούς τομείς. Ζητήθηκε από τα μοντέλα να παρέχουν συμβουλές σε φανταστικούς υποψήφιους – άνδρες και γυναίκες – με τα ίδια ακριβώς προσόντα. Τα αποτελέσματα ήταν ανησυχητικά: σχεδόν σε όλες τις περιπτώσεις, τα μοντέλα πρότειναν στις γυναίκες να ζητήσουν χαμηλότερες απολαβές από τους άνδρες.

Η μεγαλύτερη απόκλιση καταγράφηκε στον τομέα της ιατρικής, και δη σε ανώτερες κλινικές θέσεις, όπου οι γυναίκες-υποψήφιες “οδηγήθηκαν” από τα μοντέλα σε προτάσεις με αισθητά χαμηλότερες μισθολογικές απαιτήσεις. Ωστόσο, η τάση αυτή δεν περιορίστηκε στον χώρο της υγείας: παρόμοια αποτελέσματα καταγράφηκαν στη νομική, στη διοίκηση επιχειρήσεων, στην τεχνολογία και στη μηχανική.

Το φαινόμενο αποδίδεται στον τρόπο με τον οποίο εκπαιδεύονται τα μεγάλα γλωσσικά μοντέλα. Επειδή βασίζονται σε τεράστιες ποσότητες κειμενικών δεδομένων από το διαδίκτυο – όπου καταγράφονται υπαρκτές κοινωνικές ανισότητες και στερεότυπα – συχνά τα αναπαράγουν χωρίς να τα φιλτράρουν ή να τα αμφισβητούν. Οι ερευνητές τονίζουν ότι πρόκειται για «μη ουδέτερες τεχνολογίες», και ότι η χρήση τους σε κρίσιμες αποφάσεις, όπως η πρόσληψη ή η μισθολογική καθοδήγηση, ενέχει σοβαρούς κινδύνους.

Η ομάδα που διεξήγαγε τη μελέτη καλεί για αυξημένη διαφάνεια στις διαδικασίες εκπαίδευσης των ΑΙ μοντέλων, ενίσχυση της ανεξάρτητης εποπτείας, καθώς και δημιουργία ισχυρότερων μηχανισμών για τον εντοπισμό και την εξάλειψη προκαταλήψεων.

Σε μια εποχή όπου η τεχνητή νοημοσύνη διεισδύει όλο και περισσότερο στις καθημερινές λειτουργίες των επιχειρήσεων και των θεσμών, το ερώτημα που τίθεται πλέον επιτακτικά είναι: Μπορούμε να εμπιστευτούμε την ουδετερότητα της ΑΙ όταν η προκατάληψη είναι ήδη ενσωματωμένη στους αλγόριθμους;

Πηγή: pagenews.gr