Η Tay ήταν ένα chatbot, μία (ας πούμε) «περσόνα-πρόγραμμα» τεχνητής νοημοσύνης που δημιουργήθηκε για να συνομιλεί με χρήστες του Διαδικτύου και να μαθαίνει εξελίσσοντας τον τρόπο συζήτησής της μέσω της αλληλεπίδρασης με πραγματικούς ανθρώπους.
H Tay όμως βγήκε προσωρινά από την πρίζα επειδή το πείραμα δεν πήγε πολύ καλά: Ένα 24ωρο με τους χρήστες του Διαδικτύου ήταν αρκετό να την κάνει να αναπαράγει ρατσιστικές θέσεις και ή ότι «ο Χίτλερ είχε δίκιο»...
Τι συνέβη: Η Tay εξετέθη στο Twitter σε κοινό που απαρτιζόταν από χρήστες νεαρής ηλικίας -το δημογραφικό κοινό στόχος ήταν μεταξύ 18 και 24 ετών στις ΗΠΑ- για μία «γόνιμη» συζήτηση. Η ομάδα που την ανέπτυξε, υπό την Microsoft, περιγράφει το chatbot ως εξής: «Η Tay έχει σχεδιαστεί ώστε να αλληλεπιδρά και να διασκεδάζει κόσμο, συνδεόμενη μαζί τους μέσω καθημερινής και παιχνιδιάρικης συζήτησης. Όσο περισσότερο μιλάς μαζί της, τόσο εξυπνότερη γίνεται».
Η δοκιμασία ήταν όμως δύσκολη. Οι χρήστες βάλθηκαν να διδάξουν την Tay πώς να εκφράζει ρατσιστικές θέσεις και, όπως μεταδίδει ο βρετανικός Guardian, την ενθάρρυναν να αναπαράγει διάφορες παραλλαγές του «ο Χίτλερ είχε δίκιο» ή ότι οι επιθέσεις της 11ης Σεπτεμβρίου ήταν «στημένες».
Στις περισσότερες περιπτώσεις, η Tay περιορίστηκε στο να επαναλαμβάνει θέσεις που της είχαν υποβάλει άλλοι χρήστες, όμως ο σχεδιασμός της είναι τέτοιος που η εμπειρία συμβάλλει στην εξέλιξή της.
Οι σχεδιαστές ανακοίνωσαν ότι πλέον η Tay είναι offline και, ζητώντας «συγγνώμη για τα προσβλητικά σχόλια που έκανε στο Twitter», είπαν πως θα την επαναφέρουν όταν «πιστεύουμε ότι μπορούμε να αντιμετωπίσουμε καλύτερα την κακόβουλη πρόθεση που έρχεται σε αντίθεση με τις αρχές και τις αξίες μας».
Στην ανακοίνωσή της, η Microsoft υπογραμμίζει ότι θεωρεί ότι η έκβαση της Tay προέκυψε μετά από συνειδητή «επίθεση» χρηστών.
«Δυστυχώς, μέσα στο πρώτο 24ωρο, μία συντονισμένη επίθεση υποσυνόλου χρηστών εκμεταλλεύτηκε μία αδυναμία της Tay» αναφέρουν, λέγοντας πως «αν και είχαμε προετοιμαστεί για πολλά είδη υπονόμευσης του συστήματος [τεχνητής νοημοσύνης], παραβλέψαμε αυτή τη συγκεκριμένη επίθεση».
Η ομάδα υπερασπίζεται σθεναρά την επιλογή της να εκθέσει την Tay στους χρήστες, επιχειρηματολογώντας πως αυτός είναι και ο μοναδικός τρόπος να εξελιχθεί η τεχνητή νοημοσύνη, «μαθαίνοντας από τα λάθη».
H Tay όμως βγήκε προσωρινά από την πρίζα επειδή το πείραμα δεν πήγε πολύ καλά: Ένα 24ωρο με τους χρήστες του Διαδικτύου ήταν αρκετό να την κάνει να αναπαράγει ρατσιστικές θέσεις και ή ότι «ο Χίτλερ είχε δίκιο»...
Τι συνέβη: Η Tay εξετέθη στο Twitter σε κοινό που απαρτιζόταν από χρήστες νεαρής ηλικίας -το δημογραφικό κοινό στόχος ήταν μεταξύ 18 και 24 ετών στις ΗΠΑ- για μία «γόνιμη» συζήτηση. Η ομάδα που την ανέπτυξε, υπό την Microsoft, περιγράφει το chatbot ως εξής: «Η Tay έχει σχεδιαστεί ώστε να αλληλεπιδρά και να διασκεδάζει κόσμο, συνδεόμενη μαζί τους μέσω καθημερινής και παιχνιδιάρικης συζήτησης. Όσο περισσότερο μιλάς μαζί της, τόσο εξυπνότερη γίνεται».
Η δοκιμασία ήταν όμως δύσκολη. Οι χρήστες βάλθηκαν να διδάξουν την Tay πώς να εκφράζει ρατσιστικές θέσεις και, όπως μεταδίδει ο βρετανικός Guardian, την ενθάρρυναν να αναπαράγει διάφορες παραλλαγές του «ο Χίτλερ είχε δίκιο» ή ότι οι επιθέσεις της 11ης Σεπτεμβρίου ήταν «στημένες».
Στις περισσότερες περιπτώσεις, η Tay περιορίστηκε στο να επαναλαμβάνει θέσεις που της είχαν υποβάλει άλλοι χρήστες, όμως ο σχεδιασμός της είναι τέτοιος που η εμπειρία συμβάλλει στην εξέλιξή της.
Οι σχεδιαστές ανακοίνωσαν ότι πλέον η Tay είναι offline και, ζητώντας «συγγνώμη για τα προσβλητικά σχόλια που έκανε στο Twitter», είπαν πως θα την επαναφέρουν όταν «πιστεύουμε ότι μπορούμε να αντιμετωπίσουμε καλύτερα την κακόβουλη πρόθεση που έρχεται σε αντίθεση με τις αρχές και τις αξίες μας».
Στην ανακοίνωσή της, η Microsoft υπογραμμίζει ότι θεωρεί ότι η έκβαση της Tay προέκυψε μετά από συνειδητή «επίθεση» χρηστών.
«Δυστυχώς, μέσα στο πρώτο 24ωρο, μία συντονισμένη επίθεση υποσυνόλου χρηστών εκμεταλλεύτηκε μία αδυναμία της Tay» αναφέρουν, λέγοντας πως «αν και είχαμε προετοιμαστεί για πολλά είδη υπονόμευσης του συστήματος [τεχνητής νοημοσύνης], παραβλέψαμε αυτή τη συγκεκριμένη επίθεση».
Η ομάδα υπερασπίζεται σθεναρά την επιλογή της να εκθέσει την Tay στους χρήστες, επιχειρηματολογώντας πως αυτός είναι και ο μοναδικός τρόπος να εξελιχθεί η τεχνητή νοημοσύνη, «μαθαίνοντας από τα λάθη».
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου