Πώς διδάσκουμε τα ρομπότ σωστά από το λάθος;

Ο αλγόριθμος εντοπίζει πλαστά σε ρομπότ κοινωνικών μέσων, σωστή λάθος ηθικήΣημείωση του συντάκτη: Το Digital Trends συνεργάστηκε με το WebVisions, το διεθνώς αναγνωρισμένο συνέδριο σχεδίασης, τεχνολογίας και εμπειρίας χρήστη, για να βοηθήσει να φέρει τον φωτιστικό Douglas Rushkoff στη φετινή εκδήλωση στο Πόρτλαντ του Όρεγκον. Ως μέρος της συνεργασίας μας, είμαστε επίσης στην ευχάριστη θέση να επιλέξουμε επιλεγμένο περιεχόμενο από το διορατικό ιστολόγιο του WebVisions, το Word. Αυτή την εβδομάδα, ο συνεργάτης Mark Wyner αναρωτιέται πώς πηγαίνουμε στη διδασκαλία τεχνητής νοημοσύνης από το λάθος. Απολαμβάνω!

Το Twitter παραδέχθηκε ότι έως και 23 εκατομμύρια (8,5 τοις εκατό) των λογαριασμών χρηστών του είναι αυτόνομα Twitterbots. Πολλοί είναι εκεί για να αυξήσουν την παραγωγικότητα, να πραγματοποιήσουν έρευνα ή ακόμα και να διασκεδάσουν. Ωστόσο, πολλά έχουν δημιουργηθεί με επιβλαβείς προθέσεις. Και στις δύο περιπτώσεις, τα ρομπότ ήταν γνωστό ότι συμπεριφέρονται με αμφισβητήσιμη ηθική - ίσως επειδή είναι απλώς μικρά δείγματα τεχνητής νοημοσύνης (AI).

Οι άνθρωποι σήμερα κατασκευάζουν πολύ πιο εξελιγμένα μηχανήματα που θα αντιμετωπίσουν ζητήματα δεοντολογίας σε μνημειακές κλίμακες. Ακόμα και στη θνησιμότητα των ανθρώπων. Πώς λοιπόν διασφαλίζουμε ότι κάνουν τις σωστές επιλογές όταν έρθει η ώρα;

Δημιουργήστε το ή διδάξτε το

Ο βασικός παράγοντας για την επιτυχή οικοδόμηση αυτόνομων μηχανών που συμπίπτουν συμβιωτικά με τα ανθρώπινα όντα είναι η ηθική. Και υπάρχουν βασικά δύο τρόποι προγραμματισμού της ηθικής σε μηχανές:

Πρώτον, μπορείτε να τους κωδικοποιήσετε σκληρά στα λειτουργικά τους συστήματα. Η ανησυχία εδώ είναι ότι η ηθική είναι υποκειμενική. Η ηθική στο μηχάνημα εξαρτάται από την ηθική του δημιουργού της. Αλλά εμείς οι άνθρωποι δεν ευθυγραμμίζουμε πάντα με την ηθική μας. Παλεύουμε πολέμους για ηθικές διαφορές. Έτσι, καθώς κατασκευάζουμε αυτόνομα μηχανήματα για να είμαστε ηθικοί, χτίζουμε μέσα στα όρια των υφιστάμενων ανισοτήτων μας.

ρομπότ-σωστό-λάθος-ηθική-2

Δεύτερον, μπορείτε να παρέχετε ορισμένες οδηγίες και, στη συνέχεια, να επιτρέψετε στο μηχάνημα να μάθει τη δική του ηθική με βάση τις δικές του εμπειρίες. Αυτή η παθητική προσέγγιση αφήνει άφθονο χώρο για παρερμηνείες της ηθικής, ανάλογα με τις συμπεριφορές που παρατηρούνται. Εξετάστε την πρόσφατη κατάρρευση του Twitter AI της Microsoft, Tay, ο οποίος εξαπατήθηκε να κάνει tweet ρατσιστικές περιφρόνηση και προώθηση της γενοκτονίας με βάση ένα ψευδές συμπέρασμα αποδεκτής ηθικής κανονικότητας.

Μια ομάδα στο Georgia Tech εργάζεται για το τελευταίο, διδάσκοντας γνωστικά συστήματα για να μάθει πώς να συμπεριφέρεται με κοινωνικά αποδεκτούς τρόπους διαβάζοντας ιστορίες. Ένα σύστημα ανταμοιβής που ονομάζεται Quixote υποτίθεται ότι βοηθά τα γνωστικά συστήματα να εντοπίσουν πρωταγωνιστές στις ιστορίες, τις οποίες χρησιμοποιούν οι μηχανές για να ευθυγραμμίσουν τις δικές τους αξίες με αυτές των ανθρώπων. Δεν είναι σαφές ποιες μέθοδοι χρησιμοποίησε η Microsoft με τον Tay. Αλλά αν οι τεχνικές τους ήταν προληπτικές, όπως και με το σύστημα μάθησης της Georgia Tech, απέχουμε πολύ από την ενίσχυση της ηθικής στην Τεχνητή Νοημοσύνη.

Ηθική παράλυση

Τώρα, όλα αυτά βασίζονται στην ιδέα ότι ένας υπολογιστής μπορεί να κατανοήσει ακόμη και την ηθική. Όπως δείχνει ο Alan Winfield στη μελέτη του Προς ένα ηθικό ρομπότ, όταν ένας υπολογιστής συναντά ένα ηθικό παράδοξο, το αποτέλεσμα είναι απρόβλεπτο, συχνά παράλυτο. Στη μελέτη του, ζητήθηκε από ένα γνωστικό ρομπότ (Α-ρομπότ) να σώσει ένα «ανθρώπινο» ρομπότ (H-ρομπότ) από τον κίνδυνο. Όταν το ρομπότ Α μπορούσε να σώσει μόνο ένα από τα δύο ρομπότ H, ταλαιπωρήθηκε και παραχώρησε στη δική του σύγχυση, χωρίς να σώσει κανένα.

Υπάρχει μια αρχαία φιλοσοφική συζήτηση σχετικά με το αν η ηθική είναι θέμα λογικής ή συναισθήματος. Μεταξύ των σύγχρονων ψυχολόγων, υπάρχει συναίνεση ότι η ηθική λήψη αποφάσεων απαιτεί λογικές και συναισθηματικές κρίσεις. Όπως σημειώνει ο καθηγητής Paul Thagard σε ένα κομμάτι για αυτό το θέμα, «οι ηθικές κρίσεις είναι συχνά πολύ συναισθηματικές, όταν οι άνθρωποι εκφράζουν την έντονη αποδοχή ή αποδοκιμασία τους για διάφορες πράξεις. Το αν είναι επίσης λογικά εξαρτάται από το αν η γνωστική εκτίμηση που είναι μέρος του συναισθήματος γίνεται καλά ή άσχημα. "

Αποφάσεις με συνέπειες

Έτσι, εάν οι γνωστικές μηχανές δεν έχουν την ικανότητα ηθικής, ποιος είναι υπεύθυνος όταν παραβιάζουν το νόμο; Επί του παρόντος, κανείς δεν φαίνεται να ξέρει. Ο Ράιαν Κάλο της Σχολής Νομικής του Πανεπιστημίου της Ουάσινγκτον σημειώνει, «η ρομποτική συνδυάζει, για πρώτη φορά, την ασυμφωνία των δεδομένων με την ικανότητα να προκαλεί σωματική βλάβη. ρομποτικά συστήματα εκτελούν εργασίες με τρόπους που δεν μπορούν να προβλεφθούν εκ των προτέρων. και τα ρομπότ θολώνουν όλο και περισσότερο τη γραμμή μεταξύ ατόμου και οργάνου. "

Η διαδικασία για τη νομοθεσία είναι αργά, ενώ η τεχνολογία, από την άλλη πλευρά, κάνει εκθετική βιασύνη.

Τα εγκλήματα μπορεί επίσης να είναι αρκετά σοβαρά. Ο Ολλανδός προγραμματιστής Jeffry van der Goot έπρεπε να υπερασπιστεί τον εαυτό του - και το Twitterbot του - όταν η αστυνομία χτύπησε την πόρτα του, ρωτώντας για μια απειλή θανάτου που στάλθηκε από τον λογαριασμό του στο Twitter. Στη συνέχεια υπάρχει Random Darknet Shopper. ένα bot αγορών με εβδομαδιαίο επίδομα $ 100 σε Bitcoin για να κάνετε αγορές στο Darknet για μια έκθεση τέχνης. Σουηδοί αξιωματούχοι δεν διασκεδάζουν όταν αγόρασε έκσταση, την οποία ο καλλιτέχνης παρουσίασε. (Αν και, προς υποστήριξη της καλλιτεχνικής έκφρασης, δεν κατάσχεσαν τα ναρκωτικά μέχρι το τέλος της έκθεσης.)

Και στις δύο αυτές περιπτώσεις, οι αρχές έκαναν ό, τι μπορούσαν σύμφωνα με το νόμο, αλλά τελικά συγχώρησαν τους ανθρώπινους ιδιοκτήτες επειδή δεν είχαν διαπράξει ρητά ή άμεσα εγκλήματα. Αλλά πώς μεταφράζεται όταν ένας άνθρωπος εξαπολύει μια AI με την πρόθεση κακίας;

Η ειρωνική πραγματικότητα είναι ότι διερευνούμε τρόπους για τη διαχείριση των αυτόνομων μηχανών μας. Και πέρα ​​από την αμφισβητήσιμη ικανότητά μας να ενσταλάξουμε την ηθική σε αυτές, συχνά μας ενοχλούν μόνο η γενική συμπεριφορά τους. Όταν συζητήσαμε τις μεθόδους πίσω από τα νευρικά δίκτυά τους, ο μηχανικός λογισμικού της Google Alexander Mordvintsev αποκάλυψε: «… παρόλο που αυτά είναι πολύ χρήσιμα εργαλεία που βασίζονται σε γνωστές μαθηματικές μεθόδους, στην πραγματικότητα καταλαβαίνουμε εκπληκτικά λίγο γιατί ορισμένα μοντέλα λειτουργούν και άλλα όχι».

Μπορούμε να συνεχίσουμε;

Όλα τα πράγματα που λαμβάνονται υπόψη, η διαδικασία νομοθεσίας είναι πολύ δύσκολη, ενώ η τεχνολογία, από την άλλη πλευρά, κάνει εκθετική βιασύνη. Όπως εξηγεί ο Vivek Wadhwa του Singularity University, «οι νόμοι δεν μπορούν να συμβαδίσουν γιατί… οι νόμοι είναι ουσιαστικά κωδικοποιημένη ηθική. Ότι αναπτύσσουμε μια συναίνεση ως κοινωνία για το τι είναι καλό και τι είναι κακό και στη συνέχεια γίνεται αυτό που είναι σωστό και τι είναι λάθος, και μετά γίνεται αυτό που είναι νόμιμο και τι είναι παράνομο. Αυτός είναι ο τρόπος που εξελίσσεται η πρόοδος. Στις περισσότερες από αυτές τις τεχνολογίες δεν έχουμε αποφασίσει τι είναι καλό ή κακό. "

Εάν ο νόμος πλησιάσει, μπορεί να γράφουμε τη δική μας καταστροφή. Όλα αυτά μιλούν για τα ρομπότ που αναλαμβάνουν τον κόσμο; Ίσως απλώς να κάνουν jaywalk μαζικά μέχρι να φυλακίσουμε τόσο μεγάλο μέρος της φυλής μας, ώστε να γίνουμε η μειονότητα σε αυτόνομα όντα. Ματ.

Πρόσφατες δημοσιεύσεις

$config[zx-auto] not found$config[zx-overlay] not found