Από μεταφράσεις που αποδίδουν το «nurse» ως «νοσοκόμα» μέχρι εικόνες που παρουσιάζουν τους δασκάλους ως γυναίκες και τους μηχανικούς ως άνδρες, η τεχνητή νοημοσύνη αναπαράγει στερεότυπα φύλου. Αυτό είναι το βασικό συμπέρασμα έρευνας που παρουσιάστηκε στο διεθνές συνέδριο IEEE EDUCON 2025 στο Λονδίνο, με συμμετοχή ερευνητών από την Ελλάδα, την Ισπανία, τον Καναδά, την Ιταλία και την Ουρουγουάη.
Η Δρ. Τίνα Νάντσου, φυσικός και σύμβουλος στο Perimeter Institute, υπογραμμίζει ότι εργαλεία AI χρησιμοποιούνται καθημερινά στην εκπαίδευση, αλλά συχνά αναπαράγουν προκαταλήψεις από τα δεδομένα με τα οποία εκπαιδεύτηκαν. Οι εικόνες και τα κείμενα που παράγονται επηρεάζουν, έστω και έμμεσα, τις αντιλήψεις των μαθητών για τα επαγγέλματα.
Η μελέτη δείχνει ότι ακόμα και τα πιο σύγχρονα μοντέλα τεχνητής νοημοσύνης (π.χ. generative AI) ενσωματώνουν έμφυλες και πολιτισμικές μεροληψίες. Οι προκαταλήψεις αυτές εμφανίζονται παντού: από την εκπαίδευση και την υγεία μέχρι την τεχνολογία και τις τέχνες.
Η έρευνα επισημαίνει την ανάγκη για ηθικά σχεδιασμένα συστήματα, ισορροπημένα δεδομένα, συμμετοχή περισσότερων γυναικών στην τεχνολογία και επιμόρφωση των εκπαιδευτικών. Όπως τόνισε ο καθηγητής Εντμούντο Τοβάρ, η προκατάληψη δεν βρίσκεται μόνο στους αλγόριθμους αλλά κυρίως στα δεδομένα — και για να καταπολεμηθεί, απαιτείται τόσο τεχνική όσο και κοινωνική παρέμβαση.