Η Αλεξάνδρεια Ocasio-Cortez λέει ότι οι Αλγόριθμοι μπορούν να είναι ρατσιστικοί. Εδώ είναι γιατί έχει δίκιο.

Pin
Send
Share
Send

Την περασμένη εβδομάδα, η νεοεκλεγείσα αμερικανική αντιπρόσωπος Alexandria Ocasio-Cortez έκανε πρωτοσέλιδα όταν ανέφερε, ως μέρος του τέταρτου ετήσιου MLK Now event, ότι οι τεχνολογίες αναγνώρισης του προσώπου και οι αλγόριθμοι "έχουν πάντα αυτές τις φυλετικές ανισότητες που μεταφράζονται, επειδή εξακολουθούν να γίνονται αλγόριθμοι από ανθρώπους, και αυτοί οι αλγόριθμοι εξακολουθούν να συνδέονται με βασικές ανθρώπινες υποθέσεις, είναι αυτοματοποιημένες και αυτοματοποιημένες υποθέσεις - αν δεν διορθώσετε την προκατάληψη, τότε απλά αυτοματοποιείτε την προκατάληψη.

Αυτό σημαίνει ότι οι αλγόριθμοι, οι οποίοι βασίζονται θεωρητικά στις αντικειμενικές αλήθειες των μαθηματικών, μπορούν να είναι "ρατσιστικοί"; Και αν ναι, τι μπορεί να γίνει για να απομακρυνθεί αυτή η προκατάληψη;

Αποδεικνύεται ότι η παραγωγή από αλγόριθμους μπορεί πράγματι να παράγει προκατειλημμένα αποτελέσματα. Οι επιστήμονες των δεδομένων λένε ότι τα προγράμματα ηλεκτρονικών υπολογιστών, τα νευρωνικά δίκτυα, οι αλγόριθμοι μηχανικής μάθησης και η τεχνητή νοημοσύνη (AI) δουλεύουν επειδή μαθαίνουν πώς να συμπεριφέρονται από τα δεδομένα που τους δίνονται. Το λογισμικό γράφεται από ανθρώπους, οι οποίοι έχουν προκατάληψη, και τα δεδομένα κατάρτισης παράγονται επίσης από ανθρώπους που έχουν προκατάληψη.

Τα δύο στάδια της μηχανικής μάθησης δείχνουν πώς αυτή η προκατάληψη μπορεί να σέρνει σε μια φαινομενικά αυτοματοποιημένη διαδικασία. Στο πρώτο στάδιο, το στάδιο της κατάρτισης, ένας αλγόριθμος μαθαίνει με βάση ένα σύνολο δεδομένων ή με ορισμένους κανόνες ή περιορισμούς. Το δεύτερο στάδιο είναι το στάδιο συμπερασμάτων, στο οποίο ο αλγόριθμος εφαρμόζει αυτό που έχει μάθει στην πράξη. Αυτό το δεύτερο στάδιο αποκαλύπτει τις προκαταλήψεις ενός αλγορίθμου. Για παράδειγμα, εάν ένας αλγόριθμος εκπαιδεύεται με εικόνες μόνο γυναικών που έχουν μακριά μαλλιά, τότε θα σκεφτεί κάποιος με κοντό μαλλιά είναι άνδρας.

Το Google έπληξε με κακό τη φλόγα το 2015 όταν οι Φωτογραφίες Google χαρακτήρισαν μαύρους ανθρώπους ως γορίλες, πιθανώς επειδή αυτά ήταν τα μόνα σκουρόχρωμα όντα στο σετ εκπαίδευσης.

Και η προκατάληψη μπορεί να εισέλθει μέσα από πολλές οδούς. "Ένα συνηθισμένο λάθος είναι η κατάρτιση ενός αλγορίθμου για την πραγματοποίηση προβλέψεων με βάση προηγούμενες αποφάσεις από προκατειλημμένους ανθρώπους", δήλωσε η Sophie Searcy, ανώτερος επιστήμονας στο μάθημα δεδομένων της επιστήμης-κατάρτισης Metis. "Αν κάνω έναν αλγόριθμο για να αυτοματοποιήσω τις αποφάσεις που έκαναν προηγουμένως μια ομάδα αξιωματικών δανείων, θα μπορούσα να πάρω τον εύκολο δρόμο και να εκπαιδεύσω τον αλγόριθμο σε παλαιότερες αποφάσεις από εκείνους τους αξιωματικούς δανείων. Αλλά τότε, βέβαια, αν οι εν λόγω δανειστές ήταν προκατειλημμένοι, τότε ο αλγόριθμος που θα χτίσει θα συνεχίσει αυτές τις προκαταλήψεις. "

Ο Searcy ανέφερε το παράδειγμα της COMPAS, ενός προγνωστικού εργαλείου που χρησιμοποιείται σε όλο το αμερικανικό σύστημα ποινικής δικαιοσύνης για καταδίκη, το οποίο προσπαθεί να προβλέψει πού θα υπάρξει εγκληματικότητα. Η ProPublica προέβη σε ανάλυση σχετικά με την COMPAS και διαπίστωσε ότι, αφού έλεγξε για άλλες στατιστικές εξηγήσεις, το εργαλείο υπερεκτίμησε τον κίνδυνο υποτροπής για τους μαύρους κατηγορούμενους και με συνέπεια υποτίμησε τον κίνδυνο για τους λευκούς κατηγορουμένους.

Για να βοηθήσει στην καταπολέμηση των αλγοριθμικών προκαταλήψεων, ο Searcy δήλωσε στους Live Science ότι οι μηχανικοί και οι επιστήμονες δεδομένων θα πρέπει να δημιουργήσουν πιο διαφορετικά σύνολα δεδομένων για νέα προβλήματα, καθώς και να κατανοήσουν και να μετριάσουν την προκατάληψη που ενσωματώνεται στα υπάρχοντα σύνολα δεδομένων.

Πρώτα απ 'όλα, είπε ο Ira Cohen, επιστήμονας δεδομένων στην αναλυτική εταιρεία Anodot, οι μηχανικοί θα πρέπει να έχουν εκπαιδευτικό σετ με σχετικά ομοιόμορφη αναπαράσταση όλων των τύπων του πληθυσμού εάν εκπαιδεύουν έναν αλγόριθμο για τον προσδιορισμό των χαρακτηριστικών των εθνοτικών ή των φύλων. "Είναι σημαντικό να εκπροσωπούνται αρκετά παραδείγματα από κάθε πληθυσμιακή ομάδα, ακόμη και αν αποτελούν μειοψηφία του συνολικού πληθυσμού που εξετάζεται", δήλωσε ο Cohen στην Live Science. Τέλος, ο Cohen συνιστά τον έλεγχο για προκατάληψη σε ένα σετ δοκιμών που περιλαμβάνει άτομα από όλες αυτές τις ομάδες. "Εάν για μια συγκεκριμένη φυλή η ακρίβεια είναι στατιστικά σημαντικά χαμηλότερη από τις άλλες κατηγορίες, ο αλγόριθμος μπορεί να έχει προκατάληψη και θα αξιολογούσα τα δεδομένα εκπαίδευσης που χρησιμοποιήθηκαν γι 'αυτό", δήλωσε ο Cohen στο LiveScience. Για παράδειγμα, αν ο αλγόριθμος μπορεί να αναγνωρίσει σωστά 900 από τα 1000 λευκά πρόσωπα, αλλά ανιχνεύει σωστά μόνο 600 από τα 1.000 ασιατικά πρόσωπα, τότε ο αλγόριθμος μπορεί να έχει προκαταλήψεις "κατά" των Ασιάτων, πρόσθεσε ο Cohen.

Η αφαίρεση της προκατάληψης μπορεί να είναι εξαιρετικά δύσκολη για την AI.

Ακόμη και η Google, που θεωρείται πρόδρομος στο εμπορικό AI, προφανώς δεν μπορούσε να βρει μια ολοκληρωμένη λύση στο πρόβλημα της γορίλας από το 2015. Το Wired διαπίστωσε ότι αντί να βρει έναν τρόπο για τους αλγορίθμους να διακρίνει μεταξύ των ανθρώπων του χρώματος και των γορίλλων, τους αλγορίθμους αναγνώρισης εικόνας από τον εντοπισμό των γορίλλων καθόλου.

Το παράδειγμα της Google είναι μια καλή υπενθύμιση ότι η εκπαίδευση του λογισμικού AI μπορεί να είναι μια δύσκολη άσκηση, ιδιαίτερα όταν το λογισμικό δεν δοκιμάζεται ή εκπαιδεύεται από μια αντιπροσωπευτική και διαφορετική ομάδα ανθρώπων.

Pin
Send
Share
Send

Δες το βίντεο: ΠΑΟΛΑ. Το δίκιο μου. ΝΥΧΤΑ ΣΤΟΝ ΡΥΘΜΟ (Ιούλιος 2024).