Σύμφωνα με έρευνα που δημοσιεύθηκε στο Proceedings of the National Academy of Sciences (PNAS), η τεχνητή νοημοσύνη μπορεί να επηρεάσει τις απόψεις και τις πράξεις μας.
«Η ανησυχία ότι οι αλγόριθμοι που χρησιμοποιούν τα σύγχρονα συστήματα ΑΙ αναπαράγουν κοινωνικές προκαταλήψεις, επειδή ακριβώς χρησιμοποιούν δεδομένα στα οποία είναι διάχυτες οι ίδιες προκαταλήψεις», λέει η Madalina Vlasceanu, ερευνήτρια στο New York University και συγγραφέας της έρευνας. «Συνεπώς όταν τα αποτελέσματα χρησιμοποιούνται από ανθρώπους, συνεχίζουν να διαδίδουν τις προκαταλήψεις, αντί να τις περιορίζουν».
Έτσι, αποτελέσματα τα οποία μπορεί μια εταιρεία να εμπιστεύεται για την ουδετεροτητα τους, μπορεί να είναι σεξιστικά, ρατσιστικά, ομοφοβικά και γενικώς άδικα προς κάποια κοινωνική ομάδα, όπως άλλωστε και οι μετέπειτα αποφάσεις που θα βασιστούν σε αυτά.
Για τη συγκεκριμένη έρευνα, οι επιστήμονες διενήργησαν 2 πειράματα για να διαπιστώσουν 1) αν οι διακρίσεις στο αλγοριθμικό output έχουν κοινωνικές επιπτώσεις και 2) αν ναι, ποιος είναι ο αντίκτυπος σε άτομα των οποίων τις προκαταλήψεις επιβεβαιώνει.
Διαβάστε περισσότερα στο jenny.gr.