Αρχική σελίδα Ηθικά προβλήματα

15 Νοεμβρίου 2019

Πώς πρέπει να προγραμματιστούν τα αυτόνομα οχήματα;


Πώς πρέπει να προγραμματιστούν τα αυτόνομα οχήματα;
Πώς πρέπει να προγραμματιστούν τα αυτόνομα οχήματα;
Μια μεγάλη παγκόσμια έρευνα που διεξήχθη από τους ερευνητές του MIT αποκαλύπτει τις διαφορετικές παγκόσμιες προτιμήσεις σχετικά με τη δεοντολογία των αυτόνομων οχημάτων, καθώς και ορισμένες περιφερειακές αποκλίσεις στις προτιμήσεις αυτές.

Η έρευνα έχει παγκόσμια εμβέλεια με πάνω από 2 εκατομμύρια διαδικτυακούς συμμετέχοντες από περισσότερες από 200 χώρες που τους δόθηκε το ηθικό αίνιγμα που αποκαλείται «το πρόβλημα του τρόλλευ» (Trolley Problem). Το πρόβλημα ενέχει πολλά και διαφορετικά σενάρια όπου ένα ατύχημα με ένα όχημα είναι επικείμενο και το όχημα πρέπει να επιλέξει μία από δυο δυνητικά θανατηφόρες επιλογές. Στην περίπτωση των μηχανοκίνητων οχημάτων, αυτό μπορεί να σημαίνει στροφή προς δύο άτομα, αντί για μια μεγάλη ομάδα παρευρισκομένων.

«Η μελέτη προσπαθεί ουσιαστικά να κατανοήσει τα είδη των ηθικών αποφάσεων που μπορεί να χρειαστεί να χρησιμοποιήσουν τα αυτοκίνητα χωρίς οδηγό», λέει ο Edmond Awad, που είναι μεταδιδακτορικός στο MIT Media Lab, στην εργασία του που περιγράφει τα αποτελέσματα του έργου. Ακόμα, ο Awad προσθέτει: «Βρήκαμε ότι υπάρχουν τρία στοιχεία που οι άνθρωποι φαίνεται να συμφωνούν» και επιγραμματικά τα τοποθετεί σε τρεις κατηγορίες προτιμήσεων και αυτές είναι: πρώτον, η προτίμηση διάσωσης της ζωής των ανθρώπων έναντι των ζώων, δεύτερον, η προτίμηση διάσωσης των περισσότερων ανθρώπων έναντι των λιγότερων και, τρίτον, η προτίμηση διάσωσης των νεότερων ανθρώπων έναντι των ηλικιωμένων.

Συνεχίζει λέγοντας ότι: «οι κύριες αυτές προτιμήσεις συμφωνήθηκαν παγκοσμίως σε κάποιο βαθμό, ο οποίος ποικίλλει μεταξύ διαφορετικών ομάδων και χωρών». Για παράδειγμα, οι ερευνητές βρήκαν μια λιγότερο έντονη τάση να ευνοούν τους νεότερους ανθρώπους, παρά τους ηλικιωμένους, σε αυτό που όρισαν ως "ανατολικό" σύμπλεγμα χωρών, συμπεριλαμβανομένων πολλών χωρών από την Ασία.

Για την διεξαγωγή της έρευνας, οι ερευνητές σχεδίασαν ένα πολυγλωσσικό παιχνίδι μέσω διαδικτύου που το αποκάλεσαν «Ηθική Μηχανή», βάσει του οποίου, οι συμμετέχοντες θα μπορούσαν να δηλώσουν τις προτιμήσεις τους σχετικά με μια σειρά διλημμάτων που ενδέχεται να αντιμετωπίσουν τα αυτόνομα οχήματα. Παραδείγματος χάριν: Θα πρέπει τα αυτόνομα οχήματα να σέβονται εξίσου τη ζωή των ανθρώπων που διασχίζουν νόμιμα τον δρόμο με τη ζωή των ανθρώπων που παραβιάζουν τους οδικούς κανόνες; (Οι περισσότεροι άνθρωποι στην έρευνα επέλεξαν την πρώτη.)

Η «Ηθική Μηχανή» συγκέντρωσε σχεδόν 40 εκατομμύρια ατομικές αποφάσεις από ερωτηθέντες σε 233
χώρες, καθώς επίσης, 100 ή περισσότερες απαντήσεις από 130 χώρες. Οι ερευνητές ανέλυσαν τα δεδομένα στο σύνολό τους, ενώ υποδιαίρεσαν τους συμμετέχοντες σε υποομάδες που βάσει των κριτηρίων της ηλικίας, της εκπαίδευσης, του φύλου, του εισοδήματος και των πολιτικών και θρησκευτικών απόψεων.

Βέβαια, πέραν των αποτελεσμάτων της έρευνας, ο Awad προτείνει, αναζητώντας δημόσιες πληροφορίες σχετικά με το θέμα της καινοτομίας και της δημόσιας ασφάλειας, ότι  αυτά τα ζητήματα, θα πρέπει να αποτελέσουν μεγαλύτερο μέρος του διαλόγου γύρω από τα αυτόνομα οχήματα. Όπως χαρακτηριστικά αναφέρει ο Iyad Rahwan, αναπληρωτής καθηγητής των τεχνών και των επιστημών των μέσων ενημέρωσης στο Media Lab.: «Από τη μία πλευρά, θέλαμε να παρέχουμε έναν απλό τρόπο για το κοινό να συμμετάσχει σε μια σημαντική κοινωνική συζήτηση, ενώ από την άλλη πλευρά, θέλαμε να συλλέξουμε στοιχεία για να προσδιορίσουμε ποιοι παράγοντες πιστεύουν ότι είναι σημαντικοί για να χρησιμοποιήσουν τα αυτόνομα αυτοκίνητα για την επίλυση των δεοντολογικών και ηθικών διλημμάτων». Συνεπώς, ο Awad αναφέρει ότι «αυτό που προσπαθήσαμε να κάνουμε σε αυτό το έργο και αυτό που ελπίζω να γίνει πιο σύνηθες, είναι να δημιουργηθεί δημόσια εμπλοκή σε τέτοιου είδους αποφάσεις».



Πηγή: Science Daily

Καλλιόπη Καγκελάρη- Stagiaire EEB




Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.

Related Posts Plugin for WordPress, Blogger...