Πώς να κάνετε ηθικά τα ρομπότ διδάσκοντάς τα να λένε Όχι

διδάσκοντας ένα ρομπότ πώς να πούμε όχι matthias scheutz τούφες Matthias Scheutz Kelvin Ma / Tufts University Είτε το smartphone σας παρακολουθεί τα αγαπημένα σας εστιατόρια, είτε το πρόγραμμα περιήγησής σας στο Web παρακολουθεί τις ιστοσελίδες που επισκέπτεστε συχνότερα, υπάρχει πιθανώς ένα κομμάτι τεχνολογίας στο σπίτι σας που μαθαίνει για εσάς.

Καθώς οι υπολογιστές μετατρέπονται από εργαλεία σε βοηθούς τα επόμενα χρόνια, οι μαθησιακές ανάγκες της τεχνολογίας που χρησιμοποιούμε καθημερινά πρόκειται να αυξηθούν εκθετικά. Αυτές οι υπηρεσίες θα είναι πιο εξελιγμένες και θα φτάσουν πολύ περισσότερο από ό, τι σήμερα - αλλά θα πρέπει να γίνουν πολύ πιο έξυπνες πριν το κάνουν.

Τα συστήματα υπολογιστών, η τεχνητή νοημοσύνη και τα βοηθητικά ρομπότ θα πρέπει να χτυπήσουν τα βιβλία σε ένα πλήθος θεμάτων - ανθρώπινη συνομιλία, πολιτισμικοί κανόνες, κοινωνική εθιμοτυπία και πολλά άλλα. Οι σημερινοί επιστήμονες διδάσκουν στο AI τα μαθήματα που θα χρειαστούν για να βοηθήσουν τους αυριανούς χρήστες και το πρόγραμμα μαθημάτων δεν είναι αυτό που θα περίμενε κανείς.

Τα πρώτα βήματα προς την εξυπνότερη AI

Πέρυσι, μέσα στα όρια του εργαστηρίου αλληλεπίδρασης ανθρώπου-ρομπότ στο Πανεπιστήμιο Tufts της Βοστώνης, ένα μικρό ρομπότ πλησίασε την άκρη ενός τραπεζιού. Όταν έφτασε σε αυτό το γκρεμό, το ρομπότ σημείωσε ότι η επιφάνεια που περπατούσε είχε τελειώσει και είπε στον χειριστή του, «Συγγνώμη, δεν μπορώ να το κάνω αυτό».

Με αυτόν τον τρόπο, το μηχάνημα επιβεβαίωσε ότι η εργασία που πραγματοποίησαν οι Matthias Scheutz και Gordon Briggs ήταν επιτυχής. Το ζευγάρι είχε αρχίσει να δίνει στο ρομπότ του τη δυνατότητα να απορρίψει ένα αίτημα που υπέβαλε ένας ανθρώπινος χειριστής, με την επιτραπέζια πράξη αυτοσυντήρησης του εξεταζόμενου ατόμου να αποτελεί επίδειξη του συστήματος στην εργασία.

Το έργο Scheutz και Briggs είναι μέρος ενός κρίσιμου κλάδου της έρευνας για την τεχνητή νοημοσύνη. Η αλληλεπίδραση ανθρώπου-ρομπότ - μερικές φορές αναφέρεται ως HRI - είναι ένα ουσιαστικό στοιχείο της συνεχούς εργασίας μας για την πρακτική εφαρμογή της AI. Είναι εύκολο να ξεχάσουμε, καθώς τα ρομπότ εξακολουθούν σε μεγάλο βαθμό να είναι μια υποθετική ανησυχία για τους περισσότερους, ότι αυτά τα μηχανήματα θα πρέπει μια μέρα να ενσωματωθούν με τους ανθρώπους που σκοπεύουν να βοηθήσουν.

Η διδασκαλία ενός ρομπότ πώς να περπατάς είναι ένα πράγμα. Η διδασκαλία του ίδιου ρομπότ όταν είναι ασφαλές να διασχίσεις έναν δρόμο είναι πολύ διαφορετική. Αυτός είναι ο πυρήνας του έργου που πραγματοποίησαν οι Scheutz και Briggs. Ήθελαν να δώσουν σε ένα ρομπότ τη δυνατότητα να απορρίπτει τις παραγγελίες που του έχουν δοθεί, εάν φαίνεται ότι η εκτέλεση της εργασίας θα την προκαλούσε βλάβη.

Για έναν άνθρωπο, αυτό μπορεί να φαίνεται σαν ένα σιωπηρό στοιχείο της δράσης της μετακίνησης. Αλλά τα ρομπότ δεν έχουν «κοινή λογική».

Σημασία της λέξης «όχι»

Η διδασκαλία ενός ρομπότ να αρνηθεί μια εντολή που το στέλνει να βυθιστεί στην καταστροφή του είναι προφανές όφελος για το ρομπότ, αλλά και για όποιον το κατέχει. Αλλά η σημασία του φτάνει πολύ βαθύτερα. Βοηθώντας ένα ρομπότ να πει "όχι" σημαίνει να βοηθάς να μάθει να κρίνει τις επιπτώσεις των πράξεών του.

«Με τον ίδιο τρόπο που δεν θέλουμε οι άνθρωποι να ακολουθούν τυφλά τις οδηγίες άλλων ανθρώπων, δεν θέλουμε τα εκπαιδευτικά ρομπότ να εκτελούν ανθρώπινες παραγγελίες χωρίς να ελέγχουν ποια είναι τα αποτελέσματα», δήλωσε ο Scheutz στην Digital Trends.

Πρέπει να διδάξουμε ρομπότ να μην υπακούουν σε εντολές που δεν είναι ηθικά ορθές.

«Οι οδηγίες μπορεί να είναι ακατάλληλες σε μια δεδομένη κατάσταση για πολλούς λόγους», συνέχισε, «αλλά το πιο σημαντικό γιατί θα μπορούσαν να προκαλέσουν βλάβη στον άνθρωπο ή να καταστρέψουν την περιουσία, συμπεριλαμβανομένου του ίδιου του ρομπότ. Με το σκεπτικό για πιθανά αποτελέσματα μιας καθοδηγούμενης δράσης, το ρομπότ μπορεί να είναι σε θέση να εντοπίσει πιθανές παραβιάσεις των κανόνων και πιθανή βλάβη που προκύπτει από τη δράση και θα μπορούσε να προσπαθήσει να τα μετριάσει. "

Ουσιαστικά, όταν το ρομπότ λαμβάνει την εντολή του να περπατήσει προς τα εμπρός, ελέγχει αυτό το αίτημα έναντι των πληροφοριών που έχει στη διάθεσή του. Αν κάτι φαίνεται ψαρό, το ρομπότ μπορεί στη συνέχεια να θέσει τις ανησυχίες του στον ανθρώπινο χειριστή, απορρίπτοντας τελικά την εντολή εντελώς εάν ο εκπαιδευτής δεν έχει επιπλέον δεδομένα για να ηρεμήσει τους φόβους του.

Η επιστημονική διαδικασία δεν αποτελεί τόσο ελκυστικό τίτλο όσο η απειλή ενός ρομπότ που ξεσηκώνει για εμάς τους ανθρώπους. Ταμπλόιντ εφημερίδες όπως το Daily Mail ανέφεραν για το έργο του Scheutz με μια επικεφαλίδα γελοιογραφία που εικάζει για την επικείμενη υποταγή των ειδών μας στα χέρια ρομπότ. Εμείς εδώ στο DT είναι γνωστό ότι αστειευόμαστε και για την αποκάλυψη του ρομπότ. Συνήθως διασκεδάζει, αλλά σε τέτοιες περιπτώσεις, μπορεί να βλάψει την ικανότητα των ερευνητών να βγάλουν το μήνυμά τους.

«Πάντα θα υπάρχουν απαντήσεις που θα βγάζουν την έρευνα εκτός του πλαισίου και θα εστιάζουν σε αυτό που μας φαίνεται άβολο, όπως η ιδέα των ρομπότ να παραβιάζουν τις εντολές μας», δήλωσε ο Scheutz σε απάντηση στην έκθεση Daily Mail. «Ωστόσο, η βασική πτυχή της έρευνάς μας που αγνοούν τέτοιοι ελκυστικοί τίτλοι είναι να διδάξει το ρομπότ να απορρίπτει εντολές που είναι όχι ηθικά υγιές - και μόνο αυτά. Να μην είσαι ανυπάκουος γενικά. "

Τι θα συμβεί αν, για παράδειγμα, ένα μικρό αγόρι είπε σε ένα ρομπότ οικιακής χρήσης να ρίξει ζεστό καφέ πάνω από τον αδερφό του ως φάρσα; Η διασφάλιση ότι αυτό δεν θα μπορούσε να συμβεί είναι ζωτικής σημασίας για την επιτυχία οποιασδήποτε εταιρείας που παράγει τέτοια τεχνολογία για την καταναλωτική αγορά και είναι δυνατό μόνο εάν το ρομπότ έχει μια ευρεία βάση δεδομένων κοινωνικών και δεοντολογικών κανόνων για να αναφέρεται παράλληλα με την ικανότητά του να λέει «όχι. "

Προσθήκη επιπέδων πολυπλοκότητας

Οι άνθρωποι ξέρουν να σταματήσουν να περπατούν όταν πλησιάζουν μια απότομη πτώση ή γιατί δεν είναι σωστό να βάζετε ένα βρέφος σε ζεστό καφέ. Οι εμπειρίες μας μας έχουν πει τι είναι επικίνδυνο και τι σημαίνει απλώς. Είτε έχουμε κάνει ή έχουμε πει για κάτι στο παρελθόν, μπορούμε να αντλήσουμε από τις πληροφορίες που έχουμε αποθηκεύσει για να ενημερώσουμε τη συμπεριφορά μας σε μια νέα κατάσταση.

Τα ρομπότ μπορούν να λύσουν προβλήματα με βάση την ίδια αρχή. Αλλά δεν έχουμε ακόμη παράγει έναν υπολογιστή που μπορεί να μάθει σαν άνθρωπος - και ακόμη και τότε, η εκμάθηση της ηθικής είναι μια διαδικασία που διαρκεί χρόνια. Τα ρομπότ πρέπει να έχουν στη διάθεσή τους μια ολόκληρη ζωή πληροφοριών προτού κυκλοφορήσουν στον κόσμο.

Η κλίμακα αυτού του έργου είναι συγκλονιστική, πολύ πέρα ​​από αυτό που πολλοί θα περίμεναν. Εκτός από τη διδασκαλία του ρομπότ πώς να εκπληρώσει ό, τι έργο στέλνουν να κάνουν, υπάρχει ένα επιπλέον επίπεδο πολυπλοκότητας που προσφέρεται από τις πολλές περιπλοκές της αλληλεπίδρασης ανθρώπου-ρομπότ.

Ο Andrew Moore είναι ο Κοσμήτορας της Σχολής Επιστημών Υπολογιστών στο Πανεπιστήμιο Carnegie Mellon. Σε αυτόν τον ρόλο παρέχει υποστήριξη σε μια ομάδα 2.000 μαθητών και μελών της σχολής, πολλοί από τους οποίους εργάζονται σε τομείς που σχετίζονται με τη ρομποτική, τη μηχανική μάθηση και την τεχνητή νοημοσύνη.

«Είμαστε υπεύθυνοι για να βοηθήσουμε να καταλάβουμε πώς θα είναι το έτος 2040,» μου είπε. "Επομένως, είμαστε επίσης υπεύθυνοι για να διασφαλίσουμε ότι το 2040 είναι μια πολύ καλή χρονιά για να ζήσουμε." Δεδομένου ότι είναι πιθανό ότι τα βοηθητικά ρομπότ θα παίξουν ρόλο σε αυτό το όραμα του μέλλοντος, ο Moore έχει μεγάλη εμπειρία στη σχέση μεταξύ μηχανήματος και χρήστη. Για να δώσει μια ιδέα για το πώς θα εξελιχθεί αυτός ο δεσμός τα επόμενα χρόνια, χρησιμοποιεί το γνωστό παράδειγμα του βοηθού smartphone.

Σήμερα, πολλοί από εμάς φέρουν ένα smartphone που μπορεί να απαντήσει σε ερωτήσεις όπως "ποιος είναι ο σημερινός Πρόεδρος των Ηνωμένων Πολιτειών;" και πιο περίπλοκα ερωτήματα όπως «πόσο ψηλά είναι οι κόρες του Προέδρου των Ηνωμένων Πολιτειών;» Σύντομα, θα δούμε ενέργειες που βασίζονται σε αυτές τις ερωτήσεις να γίνονται συνηθισμένες. Μπορείτε να ζητήσετε από το τηλέφωνό σας να παραγγείλει ένα νέο πακέτο πάνες, για παράδειγμα.

Για να δείξει το επόμενο στάδιο ανάπτυξης, ο Moore υπέβαλε μια φαινομενικά αβλαβής παραδειγματική ερώτηση. «Έχω χρόνο να πάρω έναν καφέ πριν από την επόμενη συνάντησή μου;»

Περισσότερα για το AI: Ο αλγόριθμος μηχανικής εκμάθησης βάζει τα λόγια του Τζορτζ Μπους στο στόμα του Μπαράκ Ομπάμα

«Κάτω από την κουκούλα, υπάρχουν πολλές γνώσεις που πρέπει να φτάσουν στον υπολογιστή για να απαντήσει ο υπολογιστής στην ερώτηση», δήλωσε ο Moore. Ενώ η σημερινή τεχνολογία μπορεί να κατανοήσει την ερώτηση, το σύστημα χρειάζεται πολλά δεδομένα για να απαντήσει. Πώς είναι η καφετέρια; Πώς είναι η κυκλοφορία; Τι είδους ποτό παραγγέλνει συνήθως ο χρήστης; Η παροχή στον υπολογιστή πρόσβασης σε αυτά τα δεδομένα παρουσιάζει τις δικές του προκλήσεις.

Τα συστήματα τεχνητής νοημοσύνης θα χρειαστούν πρόσβαση σε μια τεράστια ποσότητα πληροφοριών - μερικές από τις οποίες είναι πετρόχτιστες, μερικές από τις οποίες αλλάζουν συνεχώς - απλώς για την εκτέλεση των πολύπλοκων εργασιών που θα περιμένουμε από αυτά σε λίγα χρόνια.

Ο Μουρ απεικονίζει αυτό το σημείο συγκρίνοντας τον τόνο της φωνής που μπορεί να έχει ένα άτομο όταν μιλάει στο αφεντικό του αφεντικού του ή σε έναν παλιό φίλο. Κάπου στις τράπεζες δεδομένων σας, υπάρχει ένας πυρήνας πληροφοριών που σας λέει ότι ο πρώτος πρέπει να αντιμετωπίζεται με ορισμένα κοινωνικά στοιχεία που δεν είναι απαραίτητα όταν μιλάτε με την τελευταία.

Εάν ζητήσετε από την Google να δείξει κόκκινα φορέματα και ένα από τα αποτελέσματα είναι μια φρυγανιέρα, το όλο θέμα καταρρέει.

Είναι απλό υλικό για έναν άνθρωπο, αλλά κάτι που πρέπει να ενσταλάξει στο AI. Και όσο πιέζει το έργο, τόσο πιο σημαντική γίνεται η ακρίβεια. Η ερώτηση ενός βοηθού εάν έχετε καφέ είναι ένα πράγμα. Τι γίνεται όμως αν πληγωθήκατε και έπρεπε να ξέρετε ποιο νοσοκομείο θα μπορούσε να φτάσει πιο γρήγορα - και ενδεχομένως χρειαζόταν βοήθεια ρομπότ για να το φτάσετε; Ένα λάθος ξαφνικά απειλεί τη ζωή.

"Είναι πραγματικά πολύ εύκολο να γράψεις ένα πρόγραμμα μηχανικής μάθησης όπου το εκπαιδεύεις με πολλά παραδείγματα", δήλωσε ο Moore. "Όταν ολοκληρώσετε αυτήν την εργασία, καταλήγετε σε ένα μοντέλο. Αυτό λειτουργεί πολύ καλά και όταν δημιουργούμε ένα τέτοιο σύστημα, μιλάμε για «ακρίβεια» και χρησιμοποιούμε φράσεις όπως «ακρίβεια» και «ανάκληση». Το ενδιαφέρον είναι ότι είναι πολύ απλό να βάλουμε πράγματα που είναι σωστά 19 φορές από 20. "

"Για πολλές εφαρμογές, αυτό είναι αρκετά καλό. Όμως, σε πολλές άλλες εφαρμογές - ειδικά όταν υπάρχει ασφάλεια ή όταν κάνετε πολύ περίπλοκες ερωτήσεις - χρειάζεστε πραγματικά το σύστημά σας να έχει ακρίβεια 99,9%. "

Η εμπιστοσύνη των χρηστών είναι επίσης ένα ζήτημα. "[Εάν] ρωτήσετε την Google" δείξτε μου τα 15 πιο δημοφιλή κόκκινα φορέματα "και ρίχνει τα αποτελέσματα και μόνο ένα από αυτά είναι στην πραγματικότητα φρυγανιέρα, τότε το όλο θέμα καταρρέει. Οι χρήστες σταματούν να το εμπιστεύονται. " Ένας χρήστης που χάνει την εμπιστοσύνη του σε ένα ρομπότ είναι πιθανό να σταματήσει να το χρησιμοποιεί εντελώς.

Διδασκαλία κοινών γνώσεων

Ακόμη και αγνοώντας τα συγκεκριμένα καθήκοντα που έχει σχεδιαστεί για να επιτύχει κάθε μεμονωμένη εφαρμογή, τα ρομπότ και οι AI θα χρειαστούν τεράστια βασική γνώση για να λειτουργήσουν στην άγρια ​​φύση. Όλα από τα κοινωνικά στοιχεία έως τους κανονισμούς ασφαλείας πρέπει να αποτυπωθούν στον εγκέφαλο του μηχανήματος για να διασφαλιστεί η επιτυχία τους.

Ευτυχώς, άλλοι τομείς δίνουν βοήθεια σε ορισμένα στοιχεία αυτού του υπολογιστικού προγράμματος σπουδών. «Με πράγματα όπως η πλοήγηση και με την ανάλυση έκφρασης ανθρώπινου προσώπου, υπάρχει μια υπάρχουσα επιστημονική πειθαρχία που έχει πραγματικά πολλά πραγματικά δεδομένα», δήλωσε ο Moore. Τα μεμονωμένα ερευνητικά προγράμματα μπορούν συχνά να επαναπροσδιορίζονται επίσης.

«Οι αλγόριθμοι που επεξεργαζόμαστε είναι γενικοί», μου είπε ο Matthias Scheutz, αναφερόμενος στην έρευνα που οδήγησε αυτός και ο Gordon Briggs στο Πανεπιστήμιο Tufts. "Μπορούν να εφαρμοστούν σε οποιονδήποτε τομέα, αρκεί το ρομπότ να έχει τις απαραίτητες αναπαραστάσεις ενεργειών και κανόνων για αυτόν τον τομέα."

Οι ενότητες που θα μπορούσαν να δώσουν στο ρομπότ τη δυνατότητα να αναγνωρίζει τις ανθρώπινες εκφράσεις ή να σταματήσει να πέφτει από ένα τραπέζι, σίγουρα έχει τις χρήσεις του. Ωστόσο, ο καθένας θα κάλυπτε ένα πολύ μικρό μέρος των βασικών απαιτήσεων ενός μηχανήματος για λειτουργία χωρίς επίβλεψη. Ένα γενικευμένο λειτουργικό σύστημα θα μπορούσε να παρουσιάσει ένα βασικό επίπεδο κοινής γνώσης που θα μπορούσε εύκολα να μοιραστεί μεταξύ διαφορετικών εφαρμογών.

«Ένας από τους σημαντικότερους χρηματοδότες αυτού του είδους της εργασίας είναι μια ομάδα που χρηματοδότησε πολλά άλλα πράγματα που αποδείχθηκαν σημαντικά», δήλωσε ο Moore. "Αυτό είναι το DARPA. Έχουν πολλά μεγάλα έργα που πηγαίνουν σε αυτό που αποκαλούν «κοινή γνώση για τη ρομποτική». "

Εάν τα AI και τα βοηθητικά ρομπότ πρόκειται να γίνουν πραγματικότητα στο όχι τόσο μακρινό μέλλον, κάποια έκδοση αυτής της πλατφόρμας «κοινής γνώσης για ρομποτική» είναι πιθανό να είναι κρίσιμο συστατικό. Θα μπορούσε ακόμη και να είναι το κλειδί για την ευρεία υιοθέτηση.

Υπάρχει πολλή δουλειά που πρέπει να γίνει προτού υπάρξει μια βάση γνώσεων που μπορεί να υποστηρίξει το πρώτο κύμα ρομπότ καταναλωτών. Το τελικό προϊόν μπορεί να είναι χρόνια μακριά, αλλά τα θεμέλια που απαιτούνται για τη διευκόλυνση της δημιουργίας του δεν είναι επιστημονική φαντασία.

Πρόσφατες δημοσιεύσεις

$config[zx-auto] not found$config[zx-overlay] not found