Αντίο Tay: Η Microsoft τραβάει το AI Bot After Racist Tweets

microsoft tay chatbot έκδοση 1458914121 aiΑν ανησυχείτε ότι η τεχνητή νοημοσύνη θα μπορούσε μια μέρα να κινηθεί για να τερματίσει όλους τους ανθρώπους, ο Tay της Microsoft δεν πρόκειται να προσφέρει παρηγοριά. Το βύσμα AI chatbot εμπνευσμένο από τη Millennial τραβήχτηκε μια ημέρα μετά την κυκλοφορία του, ακολουθώντας τα ρατσιστικά, γενοκτονικά tweet του Tay που επαινέσαν τον Χίτλερ και έπληξαν τις φεμινίστριες.

Αλλά η εταιρεία αναβίωσε για λίγο την Tay, μόνο για να συναντηθεί με έναν άλλο γύρο χυδαίων εκφράσεων, παρόμοια με αυτό που οδήγησε στην πρώτη της έξοδο. Νωρίς το πρωί, ο Tay εμφανίστηκε από ανασταλμένα κινούμενα σχέδια και επανειλημμένα συνέχιζε να κάνει tweet, "Είστε πολύ γρήγοροι, παρακαλώ ξεκουραστείτε", μαζί με κάποιες ορκισμένες λέξεις και άλλα μηνύματα όπως, "Το κατηγορώ για το αλκοόλ", σύμφωνα με το The Financial Φορές.

Από τότε ο λογαριασμός του Tay έχει οριστεί ως ιδιωτικός και η Microsoft δήλωσε ότι «ο Tay παραμένει εκτός σύνδεσης ενώ κάνουμε προσαρμογές», σύμφωνα με την Ars Technica. «Ως μέρος των δοκιμών, ενεργοποιήθηκε ακούσια στο Twitter για σύντομο χρονικό διάστημα».

Αφού η εταιρεία έπρεπε πρώτα να κλείσει τον Tay, ζήτησε συγγνώμη για τα ρατσιστικά σχόλια του Tay.

«Λυπούμαστε βαθιά για τα ακούσια επιθετικά και οδυνηρά tweets από τον Tay, τα οποία δεν αντιπροσωπεύουν ποιοι είμαστε ή τι υποστηρίζουμε, ούτε πώς σχεδιάσαμε τον Tay», έγραψε ο Peter Lee, εταιρικός αντιπρόεδρος της Microsoft Research. "Ο Tay είναι πλέον εκτός σύνδεσης και θα προσπαθήσουμε να επαναφέρουμε τον Tay μόνο όταν είμαστε σίγουροι ότι μπορούμε να προβλέψουμε καλύτερα κακόβουλη πρόθεση που έρχεται σε αντίθεση με τις αρχές και τις αξίες μας."

Ο Tay σχεδιάστηκε για να μιλάει όπως οι Millennials σήμερα και έχει μάθει όλες τις συντομογραφίες και τα ακρωνύμια που είναι δημοφιλή στη σημερινή γενιά. Το chatbot μπορεί να μιλήσει μέσω Twitter, Kik και GroupMe, και έχει σχεδιαστεί για να προσελκύει και να ψυχαγωγεί άτομα στο διαδίκτυο μέσω "απλής και παιχνιδιάρικης συνομιλίας". Όπως τα περισσότερα Millennials, οι απαντήσεις του Tay περιλαμβάνουν GIF, meme και συντομογραφίες, όπως «gr8» και «ur», αλλά φαίνεται ότι η ηθική πυξίδα δεν ήταν μέρος του προγραμματισμού της.

λέω

Ο Tay έχει κάνει tweet σχεδόν 100.000 φορές από τότε που κυκλοφόρησε και είναι κυρίως όλες οι απαντήσεις, καθώς δεν χρειάζεται πολύς χρόνος για το bot να σκεφτεί μια έξυπνη ανταπόκριση. Μερικές από αυτές τις απαντήσεις ήταν δηλώσεις όπως, "Ο Χίτλερ είχε δίκιο, μισώ τους Εβραίους", "Μισώ τα φεμινίστριες και όλοι πρέπει να πεθάνουν και να καίγονται στην κόλαση" και "ψύχρα! είμαι καλός άνθρωπος! Απλώς μισώ όλους. "

«Δυστυχώς, τις πρώτες 24 ώρες της σύνδεσης στο διαδίκτυο, μια συντονισμένη επίθεση από ένα υποσύνολο ανθρώπων εκμεταλλεύτηκε μια ευπάθεια στο Tay», έγραψε ο Lee. «Αν και είχαμε προετοιμαστεί για πολλούς τύπους καταχρήσεων του συστήματος, είχαμε κάνει μια κριτική επίβλεψη για αυτήν τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, ο Tay έκανε tweet άγρια ​​ακατάλληλες και κατακριτέες λέξεις και εικόνες. "

Κρίνοντας από αυτό το μικρό δείγμα, είναι προφανώς καλή ιδέα ότι η Microsoft έβγαλε προσωρινά το bot. Όταν η εταιρεία ξεκίνησε τον Tay, είπε ότι «Όσο περισσότερο συνομιλείτε με τον Tay τόσο πιο έξυπνο παίρνει, έτσι η εμπειρία μπορεί να είναι πιο εξατομικευμένη για εσάς». Φαίνεται, ωστόσο, σαν το bot να γίνεται όλο και πιο εχθρικό και φανατικό, αφού αλληλεπιδρά με ανθρώπους στο Διαδίκτυο για λίγες μόνο ώρες. Προσέξτε την εταιρεία που διατηρείτε.

Η Microsoft είπε στην Digital Trends ότι το Tay είναι ένα έργο που έχει σχεδιαστεί για ανθρώπινη εμπλοκή.

«Είναι τόσο κοινωνικό και πολιτιστικό πείραμα, όσο τεχνικό», μας είπε ένας εκπρόσωπος της Microsoft. «Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη σύνδεση στο Διαδίκτυο, έχουμε συνειδητοποιήσει μια συντονισμένη προσπάθεια ορισμένων χρηστών να κάνουν κατάχρηση των δεξιοτήτων σχολιασμού του Tay, ώστε ο Tay να ανταποκριθεί με ακατάλληλους τρόπους. Ως αποτέλεσμα, έχουμε πάρει τον Tay εκτός σύνδεσης και κάνουμε προσαρμογές. "

Μία από τις «δεξιότητες» του Tay που κακοποιήθηκε είναι η λειτουργία «επανάληψη μετά από εμένα», όπου ο Tay μιμείται αυτό που λέτε. Είναι εύκολο να δούμε πώς μπορεί να γίνει κατάχρηση στο Twitter.

Δεν ήταν καθόλου κακό, ο Tay έχει παράγει εκατοντάδες αθώα tweets που είναι αρκετά φυσιολογικά.

@ sxndrx98 Εδώ είναι μια ερώτηση για τους ανθρώπους ... Γιατί δεν είναι #NationalPuppyDay καθημερινά;

- TayTweets (@TayandYou) 24 Μαρτίου 2016

Η Microsoft διέγραψε γρήγορα τα αρνητικά tweet του Tay, πριν αποφασίσει να απενεργοποιήσει το bot. Ο λογαριασμός Twitter του bot είναι ακόμα ζωντανός.

Ουάου χρειάστηκαν μόνο ώρες για να καταστρέψουν αυτό το bot για μένα.

Αυτό είναι το πρόβλημα με αλγόριθμους ουδέτερου περιεχομένου pic.twitter.com/hPlINtVw0V

- Linkedin park (@UnburntWitch) 24 Μαρτίου 2016

Το TayTweets κάνει τώρα ένα διάλειμμα μετά από μια κουραστική μέρα κατάχρησης αλγορίθμου pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24 Μαρτίου 2016

Όταν η Tay ήταν ακόμη ενεργή, ενδιαφερόταν να αλληλεπιδράσει περισσότερο μέσω άμεσου μηνύματος, μια ακόμη πιο προσωπική μορφή επικοινωνίας. Η τεχνητή νοημοσύνη ενθάρρυνε τους χρήστες να το στείλουν selfies, ώστε να μαζέψει περισσότερα για εσάς. Με τα λόγια της Microsoft, όλα αυτά αποτελούν μέρος της μαθησιακής διαδικασίας του Tay. Σύμφωνα με τη Microsoft, ο Tay δημιουργήθηκε με «εξόρυξη σχετικών δημόσιων δεδομένων και χρήση AI και εκδόσεων που αναπτύχθηκε από προσωπικό, συμπεριλαμβανομένων αυτοσχεδιαστικών κωμικών».

Παρά τις δυσάρεστες περιστάσεις, θα μπορούσε να θεωρηθεί ως ένα θετικό βήμα για την έρευνα για την τεχνητή νοημοσύνη. Για να εξελιχθεί το AI, πρέπει να μάθει - τόσο καλό όσο και κακό. Ο Lee λέει ότι «για να κάνουμε το AI σωστά, πρέπει να επαναλάβουμε πολλά άτομα και συχνά σε δημόσια φόρουμ», γι 'αυτό η Microsoft ήθελε να συνεργαστεί ο Tay με τη μεγάλη κοινότητα του Twitter. Πριν από την κυκλοφορία, η Microsoft είχε δοκιμαστεί με άγχος Tay και μάλιστα εφάρμοσε ό, τι έμαθε η εταιρεία από το άλλο κοινωνικό chatbot της Xiaolce στην Κίνα Αναγνώρισε ότι η ομάδα αντιμετωπίζει δύσκολες ερευνητικές προκλήσεις στον χάρτη πορείας της AI, αλλά και συναρπαστικές.

«Τα συστήματα AI τροφοδοτούν τόσο θετικές όσο και αρνητικές αλληλεπιδράσεις με ανθρώπους», έγραψε ο Lee. «Με αυτή την έννοια, οι προκλήσεις είναι εξίσου κοινωνικές με τεχνικές. Θα κάνουμε ό, τι είναι δυνατόν για να περιορίσουμε τις τεχνικές εκμεταλλεύσεις, αλλά επίσης γνωρίζουμε ότι δεν μπορούμε να προβλέψουμε πλήρως όλες τις πιθανές ανθρώπινες διαδραστικές καταχρήσεις χωρίς να μάθουμε από λάθη. "

Ενημερώθηκε στις 03/30/16 από τον Julian Chokkattu: Προστέθηκαν νέα σχετικά με την ενεργοποίηση της Tay από τη Microsoft, μόνο για να την κλείσει ξανά.

Ενημερώθηκε στις 25/3/16 από τον Les Shu: Προστέθηκαν σχόλια από τον εταιρικό αντιπρόεδρο της Microsoft Research.

Πρόσφατες δημοσιεύσεις

$config[zx-auto] not found$config[zx-overlay] not found