Τα συστήματα τεχνητής νοημοσύνης του Facebook δημιούργησαν κατά λάθος τη δική τους γλώσσα

Οι ερευνητές του Facebook εκπαίδευσαν μέσω μηχανικής μάθησης (machine learning) πράκτορες (chatbots) ικανούς να συνδιαλέγονται μεταξύ τους για να διαπραγματεύονται. Και μάλιστα με πολύ καλά αποτελέσματα. Τόσο καλά που άρχισαν να ξεφεύγουν...

Ο ανθρώπινος διάλογος και πιο συγκεκριμένα η διαπραγμάτευση απαιτεί πολύπλοκη επικοινωνία, καθώς δύο ή περισσότεροι παράγοντες με διαφορετικούς στόχους προσπαθούν να συμφωνήσουν σε μία κοινή βάση. Απαιτεί ικανότητα αιτιολόγησης και ικανότητα σωστής ζύγισης κάθε απόφασης και πρόβλεψης του πώς θα επηρεάσει την τελική έκβαση. Αυτές τις αρχές εκπαιδεύονται να ακολουθούν και τα συστήματα τεχνητής νοημοσύνης.

Τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται να μαντεύουν τη σωστή απάντηση 

Μια μεγάλη ποσότητα παραδειγματικών δεδομένων με τα επιθυμητά αποτελέσματα δίνεται στο νευρωνικό δίκτυο, ώστε να μάθει ένα γενικό κανόνα που αντιστοιχίζει τις εισόδους με τα αποτελέσματα. Έτσι όταν θα λάβει νέα άγνωστα δεδομένα θα εφαρμόσει τον κανόνα για να εξάγει συμπεράσματα. Παρόμοια δηλαδή με το πώς λειτουργεί ο ανθρώπινος εγκέφαλος.

Μάλιστα οι πράκτορες που ανέπτυξαν στο Facebook ήταν τόσο καλοί που εφάρμοζαν πολύπλοκες στρατηγικές, όπως για παράδειγμα, έδιναν βάρος σε κάτι επουσιώδες, ώστε αν αναγκαστούν να θυσιάσουν κάτι για χάρη της διαπραγμάτευσης, να μη χάσουν κάτι μεγαλύτερης αξίας.

Το κλειδί αυτής της έρευνας βρίσκεται σε μία πρόταση της αναφοράς που δημοσίευσαν και λένε ότι αναγκάστηκαν να διαφοροποιήσουν ένα από τα μοντέλα τους γιατί οι πράκτορες δημιουργούσαν δικό τους κώδικα επικοινωνίας που διαφοροποιούνταν από την ανθρώπινη γλώσσα. Για το σκοπό αυτό χρησιμοποίησαν το λεγόμενο σταθερό μοντέλο επίβλεψης (fixed supervised model), καθώς θέλει να παραμείνει στο επίπεδο της ανθρώπινης γλώσσας.

Δηλαδή οι πράκτορες τεχνητής νοημοσύνης επικοινωνούσαν και δημιουργούσαν τη στρατηγική τους σε επίπεδο που ξεφεύγει από τη φυσική ανθρώπινη επικοινωνία.

Για παράδειγμα, σε μια συναλλαγή που έκαναν 2 bot, ο Bob και η Alice με τη δική τους γλώσσα έκαναν τον παρακάτω διάλογο:

Bob: "I can can I I everything else"
Alice: "Balls have zero to me to me to me to me to me to me to me to me to."

...Η υπόλοιπη συζήτηση συνεχίστηκε με διάφορες παραλλαγές αυτών των προτάσεων.

Με την πρώτη ματιά, οι φράσεις που αντάλλασσαν δε έβγαζαν νόημα. Αλλά παρατηρώντας καλύτερα οι ερευνητές κατάλαβαν ότι ήταν η ίδια ανταλλαγή. Οι επαναλήψεις έδειχναν πόσα πράγματα προσέφερε το καθένα. Ο Bob ήταν σαν να έλεγε εγώ πάρω 3 και εσύ όλα τα υπόλοιπα.

Τα bot ανακάλυψαν ότι δεν είναι απαραίτητο να χρησιμοποιούσαν την αγγλική γλώσσα για να κάνουν τη διαπραγμάτευση. Τα σύγχρονα συστήματα τεχνητής νοημοσύνης λειτουργούν με το σύστημα της ανταμοιβής. Δηλαδή αν δεν έχουν κανένα όφελος από το να χρησιμοποιούν την αγγλική γλώσσα, αποφασίζουν να χρησιμοποιήσουν ένα άλλο πιο αποδοτικό τρόπο.

Οι πράκτορες που ανέπτυξαν στο Facebook δεν είναι η πρώτη άφιξη στη νέα τεχνολογική εποχή. Παρόμοια συμπεριφορά παρατήρησαν και άλλοι στα συστήματά τους. Η εταιρεία OpenAI, ένα εργαστήριο τεχνητής νοημοσύνης που ιδρύθηκε από τον Elon Musk, έκανε ένα πείραμα που άφηνε τα bot να μάθουν δικές τους γλώσσες.

Αυτό μας δείχνει ότι οι μηχανές δε χρειάζεται να μιμηθούν την ανθρώπινη γλώσσα. Βασίζονται σε μια λογική που εκτείνεται σε άλλα επίπεδα και μας υπενθυμίζει πόσο λίγα ξέρουμε για τα συστήματα που σχεδιάζουμε εμείς οι ίδιοιΜπορεί τα bot να παραμερίσουν την ανθρώπινη διάλεκτο και να επινοήσουν δικές τους κωδικές λέξεις. Αυτό δημιουργεί προβλήματα τους προγραμματιστές των συστημάτων καθώς δε θα μπορούν να δημιουργούν και να ενσωματώνουν νέα νευρωνικά δίκτυα στο σύστημα. Δεν έχουμε καταλάβει ακόμη πώς αυτά τα συστήματα θα μπορούν να παρακάμπτουν τους χειριστές τους.

ΕΝΗΜΕΡΩΣΗ 14 Ιουλίου 2017 :

Σύμφωνα με το  Fast Co. Design, οι ερευνητές του έκλεισαν το σύστημα τεχνητής νοημοσύνης φοβούμενοι ότι θα χάσουν τον έλεγχο.

Τι πιστεύετε; Το παρακάναμε;

 

--

Πηγές:

  1. Lewis, M., Yarats, D., Dauphin, Y. N., Parikh, D., & Batra, D. (2017). Deal or No Deal? End-to-End Learning for Negotiation Dialogues. arXiv preprint arXiv:1706.05125.
  2. Mordatch, I., & Abbeel, P. (2017). Emergence of Grounded Compositional Language in Multi-Agent Populations. arXiv preprint arXiv:1703.04908.
  3. Learning to Communicate blog.openai.com
  4. MARK WILSON. AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? fastcodesign.com

Χρησιμοποιούμε cookies που μας επιτρέπουν μια σειρά από λειτουργίες που ενισχύουν την εμπειρία σας στην ιστοσελίδα μας.
Κάνοντας κλικ στο "Συμφωνώ" ή συνεχίζοντας να χρησιμοποιείται την ιστοσελίδα bioximikos.gr συμφωνείτε με τη χρήση cookies.