Η γεννημένη στην Αιθιοπία Timnit Gebru, επιστήμονας πληροφορικής έχασε τη δουλειά της αφού επισήμανε τις ανισότητες που ενσωματώνονται στην τεχνητή νοημοσύνη...
Mοιάζει με κυνήγι χρυσού» λέει η Timnit Gebru. «Στην πραγματικότητα πολλοί από τους ανθρώπους που βγάζουν χρήματα δεν είναι οι άνθρωποι που βρίσκονται στη μέση της διαδικασίας. Αλλά είναι οι άνθρωποι που αποφασίζουν αν όλα αυτά πρέπει να γίνουν ή όχι».
Η Gebru μιλάει για τον εξειδικευμένο τομέα της: Την τεχνητή νοημοσύνη καθώς και με κάτι που η φρενήρης συζήτηση για την τεχνητή νοημοσύνη παραλείπει -το γεγονός ότι πολλά από τα συστήματά της μπορεί κάλλιστα να είναι χτισμένα πάνω σε ένα τεράστιο χάος προκαταλήψεων, ανισοτήτων και ανισορροπιών εξουσίας.
Όταν η Gebru μιλάει για τον τρόπο με τον οποίο η τεχνητή νοημοσύνη «επηρεάζει τους ανθρώπους σε όλο τον κόσμο και δεν έχουν λόγο για το πώς θα πρέπει να τη διαμορφώσουν», το θέμα αναδεικνύεται ακόμη πιο έντονα από την προϊστορία της.
Η Google και το ξαφνικό τέλος
Στην εφηβεία της, η Gebru ήταν πρόσφυγας του πολέμου μεταξύ της Αιθιοπίας, όπου μεγάλωσε, και της Ερυθραίας, όπου γεννήθηκαν οι γονείς της. Μετά από ένα χρόνο στην Ιρλανδία, κατάφερε να φτάσει στα περίχωρα της Βοστώνης της Μασαχουσέτης και από εκεί στο Πανεπιστήμιο Στάνφορντ στη βόρεια Καλιφόρνια, το οποίο της άνοιξε τον δρόμο για μια καριέρα στην αιχμή του δόρατος της πληροφορικής: Η Apple, στη συνέχεια η Microsoft και στη συνέχεια η Google. Αλλά στα τέλη του 2020, η εργασία της στη Google έλαβε ένα ξαφνικό τέλος.
Ως συν-επικεφαλής της μικρής ομάδας ηθικής τεχνητής νοημοσύνης της Google, η Gebru ήταν μία από τους συγγραφείς ενός ακαδημαϊκού εγγράφου που προειδοποιούσε για το είδος της τεχνητής νοημοσύνης που ενσωματώνεται όλο και περισσότερο στη ζωή μας, οδηγώντας τις αναζητήσεις στο διαδίκτυο και τις συστάσεις προς τους χρήστες σε προφανώς νέα επίπεδα πολυπλοκότητας και απειλώντας να κυριαρχήσει σε ανθρώπινα ταλέντα όπως η γραφή, η σύνθεση μουσικής και η ανάλυση εικόνων.
Ο σαφής κίνδυνος, σύμφωνα με το έγγραφο, είναι ότι αυτή η υποτιθέμενη «νοημοσύνη» βασίζεται σε τεράστια σύνολα δεδομένων που «αντιπροσωπεύουν ηγεμονικές απόψεις και κωδικοποιούν προκαταλήψεις δυνητικά επιζήμιες για περιθωριοποιημένους πληθυσμούς». Πιο ωμά, η τεχνητή νοημοσύνη απειλεί να εμβαθύνει την κυριαρχία ενός τρόπου σκέψης που είναι λευκός, ανδρικός, συγκριτικά εύπορος και επικεντρώνεται στις ΗΠΑ και την Ευρώπη.
Σε απάντηση, ανώτερα στελέχη της Google απαίτησαν από την Gebru είτε να αποσύρει την εργασία είτε να αφαιρέσει το όνομά της και των συναδέλφων της από αυτήν. Αυτό πυροδότησε μια σειρά γεγονότων που οδήγησαν στην αποχώρησή της. Η Google λέει ότι παραιτήθηκε- η Gebru επιμένει ότι απολύθηκε.
Το ιδεολογικό παράλογο του πράγματος
Η Gebru, που είναι 40 ετών, μιλάει μερικές φορές ιλιγγιωδώς γρήγορα. Τείνει να χρησιμοποιεί το ακριβές, μετρημένο λεξιλόγιο ενός tech insider, με μια αίσθηση του παραλόγου που επικεντρώνεται σε μια ιδιαίτερα έντονη ειρωνεία: Το γεγονός ότι ένας κλάδος που ξεχειλίζει από ανθρώπους που υποστηρίζουν φιλελεύθερες, συνειδητά προοδευτικές απόψεις τόσο συχνά φαίνεται να σπρώχνει τον κόσμο προς την αντίθετη κατεύθυνση.
Ένα από τα θέματα στα οποία επιστρέφει επανειλημμένα είναι ο ρατσισμός, συμπεριλαμβανομένων των εμπειριών προκατάληψης στο εκπαιδευτικό σύστημα των ΗΠΑ και στη Silicon Valley. Όταν πήγαινε στο λύκειο της Μασαχουσέτης, λέει, το χάρισμά της για τις φυσικές επιστήμες αντιμετωπίστηκε ωμά (ένας καθηγητής της είπε: «Έχω γνωρίσει τόσους πολλούς ανθρώπους σαν εσένα που νομίζουν ότι μπορούν απλά να έρθουν εδώ από άλλες χώρες και να παρακολουθήσουν τα πιο δύσκολα μαθήματα») και με παθητική επιθετικότητα -παρά τους υψηλούς βαθμούς στη φυσική, το αίτημά της να μελετήσει περαιτέρω το αντικείμενο αντιμετωπίστηκε με την ανησυχία ότι μπορεί να το βρει πολύ δύσκολο.
«Αυτό που με μπέρδεψε πολύ ως μετανάστρια ήταν αυτός ο φιλελεύθερος τύπος ρατσισμού» λέει. «Άνθρωποι που ακούγονται σαν να νοιάζονται πραγματικά για σένα, αλλά έλεγαν: ‘Δεν νομίζεις ότι θα είναι δύσκολο για σένα;’ Μου πήρε λίγο χρόνο για να καταλάβω πραγματικά τι συνέβαινε».
Μια ακόμα πιο θρασύτατη προκατάληψη
Αργότερα ήρθε μια εμπειρία καμπής με ακόμα πιο θρασύτατη προκατάληψη, όταν δέχτηκε επίθεση σε ένα μπαρ μαζί με μια φίλη της -μια μαύρη γυναίκα-. «Αυτή ήταν η πιο τρομακτική συνάντηση που είχα ποτέ στις ΗΠΑ» λέει. «Ήταν στο Σαν Φρανσίσκο – και πάλι, ένα άλλο φιλελεύθερο μέρος. Μου επιτέθηκαν κάποιοι τύποι και κανείς δεν με βοήθησε καθόλου. Αυτό ήταν το πιο τρομακτικό πράγμα που έζησα: Να σε στραγγαλίζουν και ο κόσμος να περνάει και να σε κοιτάζει».
Κάλεσε την αστυνομία. «Και αυτό ήταν χειρότερο από το να μην την καλέσω, γιατί πρώτα με κατηγόρησαν πολλές φορές ότι λέω ψέματα και μου έλεγαν συνέχεια να ηρεμήσω. Και μετά έβαλαν χειροπέδες στη φίλη μου, η οποία μόλις είχε δεχτεί επίθεση». Η φίλη της κρατήθηκε επίσης σε κελί της αστυνομίας.
Χοντρή κονόμα και σεξισμός
«Ήταν μια δύσκολη απόφαση» λέει. «Επειδή, μέχρι να πάω στη Google, είχα ακούσει από πολλές γυναίκες για σεξουαλική παρενόχληση και άλλα είδη παρενόχλησης και μου είχαν πει πραγματικά: «Μην το κάνεις»».
Δύο μήνες αργότερα, το προσωπικό συμμετείχε σε μια τεράστια αποχή λόγω ισχυρισμών για συστημικό ρατσισμό, σεξουαλική παρενόχληση και ανισότητα των φύλων. Η Gebru λέει ότι γνώρισε «μεγάλη ανοχή στην παρενόχληση και σε κάθε είδους τοξική συμπεριφορά».
Στη συνέχεια, το 2020, η Gebru και δύο συνάδελφοι έγραψαν το έγγραφο που θα οδηγούσε στην αποχώρηση της Gebru. Είχε τον τίτλο On the Dangers of Stochastic Parrots (Για τους κινδύνους των στοχαστικών παπαγάλων). Ο βασικός της ισχυρισμός αφορούσε την τεχνητή νοημοσύνη με επίκεντρο τα λεγόμενα μεγάλα γλωσσικά μοντέλα: το είδος των συστημάτων – όπως το ChatGPT της OpenAI και το πρόσφατα λανσαρισμένο PaLM 2 της Google – τα οποία, χονδροειδώς μιλώντας, κονομάνε με τεράστιες ποσότητες δεδομένων για να εκτελέσουν περίπλοκες εργασίες και να παράγουν περιεχόμενο.
Οι πηγές αυτές συνήθως προέρχονται από τον παγκόσμιο ιστό και αναπόφευκτα περιλαμβάνουν υλικό που συνήθως υπόκειται σε πνευματικά δικαιώματα (αν ένα σύστημα τεχνητής νοημοσύνης μπορεί να παράγει πεζογραφία στο ύφος ενός συγκεκριμένου συγγραφέα, για παράδειγμα, αυτό συμβαίνει επειδή έχει απορροφήσει μεγάλο μέρος της δουλειάς του συγγραφέα). Όμως η Gebru και οι συν-συγγραφείς της είχαν μια ακόμη σοβαρότερη ανησυχία: ότι η ανίχνευση του διαδικτυακού κόσμου ενέχει τον κίνδυνο αναπαραγωγής των χειρότερων πτυχών του, από τη ρητορική μίσους μέχρι τις απόψεις που αποκλείουν περιθωριοποιημένα άτομα και μέρη. «Αποδεχόμενοι μεγάλες ποσότητες διαδικτυακού κειμένου ως «αντιπροσωπευτικές» για «όλη» την ανθρωπότητα, κινδυνεύουμε να διαιωνίσουμε τις κυρίαρχες απόψεις, να αυξήσουμε τις ανισορροπίες ισχύος και να επαναφέρουμε περαιτέρω την ανισότητα», έγραψαν.
Την «αποχώρησαν»
Στη συνέχεια, τον Δεκέμβριο του 2020, ενώ βρισκόταν σε διακοπές, ένας από τους στενότερους συναδέλφους της της έστειλε μήνυμα για να τη ρωτήσει αν ένα μήνυμα ηλεκτρονικού ταχυδρομείου που είχε δει και έλεγε ότι είχε αποχωρήσει από την εταιρεία ήταν σωστό. Οι επόμενοι λογαριασμοί ανέφεραν ότι η Google είχε επικαλεστεί «συμπεριφορά που δεν συνάδει με τις προσδοκίες ενός διευθυντή της Google».
Πώς, άραγε, αισθάνθηκε; «Δεν ήμουν σε κατάσταση σκέψης. Ήμουν απλά σε κατάσταση δράσης, όπως: ‘Χρειάζομαι έναν δικηγόρο και πρέπει να βγάλω την ιστορία μου προς τα έξω- αναρωτιέμαι τι σχεδιάζουν- αναρωτιέμαι τι θα πουν για μένα’».
Πώς αισθάνεται που τα έβαλε με τους παλιούς εργοδότες της στη Silicon Valley; «»εν ξέρω αν θα τους αλλάξουμε ή όχι. Δεν πρόκειται ποτέ να πάρουμε, ας πούμε, ένα τετράκις εκατομμύριο δολάρια για να κάνουμε αυτό που κάνουμε. Απλώς νιώθω ότι πρέπει να κάνουμε ό,τι μπορούμε. Ίσως, αν αρκετοί άνθρωποι κάνουν μικρά πράγματα και οργανωθούν, τα πράγματα να αλλάξουν. Αυτή είναι η ελπίδα μου».
*Με στοιχεία από theguardian.com
Πηγή: www.tanea.gr/2023/05/22 -Posted by Anexartitos.Ta.Neα
Αν θέλετε να μαθαίνετε παράλληλα όσα σημαντικά διαδραματίζονται στα ελληνικά και ξένα media κάντε like στην σελίδα στο Facebook πατώντας εδώ.click here
Δημοσίευση σχολίου
.Τα σχόλια υπάρχουν για να συνεισφέρουν οι αναγνώστες στο διάλογο.
. Ο καθένας έχει δικαίωμα να εκφράζει ελεύθερα τις απόψεις του.
. Αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές.
. Συκοφαντικά ή υβριστικά σχόλια και greeklish αφαιρούνται όπου εντοπίζονται.
. Η ευθύνη των σχολίων (αστική και ποινική) βαρύνει τους σχολιαστές και μόνον αυτούς.
. Η ταυτότητα των σχολιαστών είναι γνωστή μόνο στην Google.
. Όποιος θίγεται μπορεί να επικοινωνεί στο email μας.
. Περισσότερα στους όρους χρήσης.. Ευχαριστούμε για την κατανόησή σας.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου