Αρχική σελίδα Ηθικά προβλήματα

22 Σεπτεμβρίου 2019

Τεχνητή νοημοσύνη: Η γλώσσα των ρομπότ…




Τεχνητή νοημοσύνη: Η γλώσσα των ρομπότ… Τεχνητή νοημοσύνη κίνδυνοι - βιοηθική
Τεχνητή νοημοσύνη: Η γλώσσα των ρομπότ…

Δύο ρομπότ άρχισαν να επικοινωνούν ανεξέλεγκτα μεταξύ τους σε δική τους γλώσσα!

Στο βίντεο της παρούσας ανάρτησης μπορείτε να παρακολουθήσετε την εξαιρετικά ενδιαφέρουσα είδηση ότι δύο ρομπότ άρχισαν να επικοινωνούν μεταξύ τους σε δική τους γλώσσα.[1] Το καλοκαίρι του 2017, έγινε γνωστό ότι το facebook αναγκάστηκε να τερματίσει ένα πείραμα τεχνητής νοημοσύνης που διενεργούσε, καθώς τα δύο ρομπότ (chatbots) που συμμετείχαν άρχισαν να επικοινωνούν σε μια γλώσσα που δεν μπορούσε να  καταλάβει κανείς άλλος εκτός από αυτά τα ίδια. Τα δύο chatbots είχαν προγραμματιστεί ώστε να διαπραγματευτούν την ανταλλαγή καπέλων, βιβλίων και μπαλών μιλώντας στην αγγλική γλώσσα. Όμως, πολύ γρήγορα τροποποίησαν την αγγλική γλώσσα και χρησιμοποιούσαν κάποιες λέξεις, τις οποίες επαναλάμβαναν, δείχνοντας έτσι να μπορούν να επικοινωνήσουν πιο εύκολα με ένα δικό τους κώδικα ο οποίος είναι άγνωστος σε εμάς.[2]  Το πείραμα αυτό χαρακτηρίστηκε από πολλούς  ότι είναι ιδιαίτερα συναρπαστικό, αλλά παράλληλα και εξαιρετικά τρομακτικό και επικίνδυνο. Μια από τις συνομιλίες  που καταγράφηκε μεταξύ των ρομπότ  στο παραπάνω πείραμα ήταν η εξής:[3] 

Τεχνητή νοημοσύνη: Η γλώσσα των ρομπότ… Τεχνητή νοημοσύνη κίνδυνοι - βιοηθική
Η γλώσσα των ρομπότ…

- Bob: i can i i everything else
- Alice: balls have zero to me to me to me to me to me to me to me to me to
- Bob: you i everything else
- Alice: balls have a ball to me to me to me to me to me to me to me
- Bob: i i can i i i everything else
- Alice: balls have a ball to me to me to me to me to me to me to me
- Bob: i
- Alice: balls have zero to me to me to me to me to me to me to me to me to
- Bob: you i i i i i everything else
- Alice: balls have 0 to me to me to me to me to me to me to me to me to -Bob: you i i i everything else
- Alice: balls have zero to me to me to me to me to me to me to me to me to


Οι ειδικοί επισημαίνουν ότι φαίνεται να υπάρχουν κάποιοι κανόνες στον παραπάνω διάλογο. Για παράδειγμα, οι αντωνυμίες που χρησιμοποιούν πολλές φορές σε κάθε πρόταση φαίνεται να έχουν τον ρόλο τους στο παζάρι. Κάποιοι από αυτούς τους διαλόγους κατάφεραν και έληξαν με επιτυχία, ενώ διεξήχθησαν σε αυτήν την περίεργη γλώσσα. Τα chatbots επίσης φαίνεται να έμαθαν να παζαρεύουν με πολύ "ανθρώπινο" τρόπο. Για παράδειγμα, παρίσταναν ότι ενδιαφέρονται για ένα συγκεκριμένο αντικείμενο. Ο Dhruv Batra, ερευνητής στο τμήμα της τεχνητής νοημοσύνης του Facebook, ανέφερε τα εξής: "Τα δύο chatbots δημιούργησαν μια ακατανόητη για εμάς γλώσσα και εφηύραν κωδικοποιημένες λέξεις για τη μεταξύ τους επικοινωνία. Για παράδειγμα, χρησιμοποιείται μια λέξη πέντε φορές για να αντιληφθεί ο συνομιλητής μου ότι εννοώ πέντε αντικείμενα. Δε διαφέρει και πολύ από τις συντομεύσεις που χρησιμοποιούν οι άνθρωποι.[4]
Επίσης ο γλωσσολόγος Mark Liberman υποστηρίζει, ότι η ιδιάζουσα αυτή  γλώσσα, δεν αποτελεί κάποια
πρώιμη μορφή του ανθρώπινου λόγου."Για αρχή, πρόκειται για γλώσσα που χρησιμοποιείται καθολικά σε γραπτή μορφή, ενώ οι ανθρώπινες γλώσσες χρησιμοποιούνται κατά βάση προφορικά ή νοηματικά, ενώ τα κείμενα είναι το τεχνικό κομμάτι τους.", αναφέρει στο blog του. "Πέρα από αυτά, είναι αβέβαιο αν χρησιμοποιείται μια τυποποιημένη μορφή λέξεων, φράσεων και προτάσεων, όπως χρησιμοποιείται από τις ανθρώπινες γλώσσες."[5]

Τέλος ο  καθηγητής της ρομποτικής Kevin Warwick δήλωσε σχετικά με το πείραμα: «Αυτό είναι ένα απίστευτα σημαντικό επίτευγμα, αλλά όποιος πιστεύει ότι δεν είναι επικίνδυνο, εθελοτυφλεί. Δε γνωρίζουμε τι λένε αυτά τα ρομπότ. Όταν έχεις ένα ρομπότ που έχει την ικανότητα να κάνει κάτι σωματικά, ειδικά τα στρατιωτικά ρομπότ, τότε θα μπορούσε να αποδειχθεί μοιραίο. Αν το ένα από τα δύο πει “Γιατί να μην κάνουμε αυτό” και το άλλο πει “Ναι” και πρόκειται για στρατιωτικά ρομπότ, τότε έχουμε μια σοβαρή κατάσταση». Ο ίδιος συμπλήρωσε πως: «Αυτή είναι η πρώτη καταγεγραμμένη επικοινωνία αλλά θα υπάρχουν και άλλες που δε θα έχουν καταγραφεί. Ο Στίβεν Χόκινγκ κι εγώ έχουμε προειδοποιήσει για τους κινδύνους της τεχνητής νοημοσύνης».[6]

Κ.Ε.


Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.

Related Posts Plugin for WordPress, Blogger...