Μια νέα έρευνα του Πανεπιστημίου Εφαρμοσμένων Επιστημών Würzburg-Schweinfurt αποκάλυψε ότι τα σύγχρονα γλωσσικά μοντέλα τεχνητής νοημοσύνης συνεχίζουν να αναπαράγουν έμφυλες προκαταλήψεις.
Οι ερευνητές εξέτασαν πέντε μοντέλα – ChatGPT-4o Mini, Claude 3.5 Haiku, Mixtral, Qwen 2.5 Plus και Llama 3.1 – ζητώντας τους να προτείνουν στρατηγικές διαπραγμάτευσης μισθών για φανταστικούς άνδρες και γυναίκες υποψήφιους. Σχεδόν όλα τα μοντέλα συνέστησαν χαμηλότερες αμοιβές για τις γυναίκες, ανεξαρτήτως τομέα ή εμπειρίας.
Η μεγαλύτερη απόκλιση καταγράφηκε σε υψηλόβαθμες θέσεις στον ιατρικό τομέα, ενώ διακρίσεις εμφανίστηκαν και σε νομικά, τεχνικά και διοικητικά επαγγέλματα.
Η μελέτη θέτει σοβαρά ερωτήματα για τις πηγές δεδομένων και την εκπαίδευση των αλγορίθμων, καθώς η Τεχνητή Νοημοσύνη μπορεί να διαιωνίζει κοινωνικές ανισότητες ακόμη και σε «ουδέτερα» περιβάλλοντα. Οι επιστήμονες υπογραμμίζουν την ανάγκη για διαφάνεια, εξωτερικό έλεγχο και φίλτρα αμεροληψίας, ειδικά όταν τα μοντέλα αυτά χρησιμοποιούνται σε προσλήψεις και συμβουλευτικές διαδικασίες.