«Σύστημα ενοχής» θα εμποδίζει τα πολεμικά ρομπότ να βλάπτουν αθώους - Ελλήνων Αφύπνιση

Page Nav

HIDE

Grid

GRID_STYLE
{fbt_classic_header}

ΕΠΙΚΑΙΡΟΤΗΤΑ:

latest

«Σύστημα ενοχής» θα εμποδίζει τα πολεμικά ρομπότ να βλάπτουν αθώους

Στρατιώτες με ηθική Τα ρομπότ του πολέμου σύντομα θα γνωρίζουν από μόνα τους την πολεμική νομοθεσία και τους κανόνες εμπλοκής και θα νιώθουν...


Στρατιώτες με ηθική
Τα ρομπότ του πολέμου σύντομα θα γνωρίζουν από μόνα τους την πολεμική νομοθεσία και τους κανόνες εμπλοκής και θα νιώθουν ένοχα όταν βλάπτουν αθώους πολίτες, ελπίζουν μηχανικοί και προγραμματιστές που εργάζονται για λογαριασμό του αμερικανικού Πενταγώνου.
«Αποφασίσαμε ότι είναι σημαντικό να ενσωματώσουμε σε αυτά τα συστήματα το ηθικό συναίσθημα της ενοχής» αναφέρει σε συνέντευξή του στο CNet ο Ρόναλντ Αρκιν του Ινστιτούτου Τεχνολογίας της Τζόρτζια, ο οποίος μόλις ολοκλήρωσε ένα τριετές ερευνητικό πρόγραμμα για λογαριασμό του στρατού το οποίο αφορά το λογισμικό των ηθικών ρομπότ.
Η προσπάθεια της ομάδας του Αρκιν μοιάζει να κινείται στο χώρο της επιστημονικής φαντασίας, ίσως όμως αποδειχθεί τελικά μεγάλης σημασίας, καθώς το αμερικανικό Κογκρέσο έχει θέσει στόχο το ένα τρίτο των επιθετικών αεροσκαφών να είναι μη επανδρωμένο έως το 2010 και το ένα τρίτο των επίγειων οχημάτων μάχης να είναι μη επανδρωμένα ως το 2015.
Δεδομένου ότι τα ρομπότ ήδη χρησιμοποιούνται ευρέως στο πεδίο της μάχης, το ζήτημα της απόδοσης ευθυνών όταν υπάρχουν παράπλευρες απώλειες αποκτά όλο και μεγαλύτερη σημασία.
«Έχουμε ενσωματώσει ένα σύστημα που ονομάζεται 'προσαρμογέας ηθικής', μελετώντας τα ανθρώπινα μοντέλα ενοχής και εισάγοντάς τα ένα ρομποτικό σύστημα».
Τα πολεμικά ρομπότ θα γνωρίζουν πότε είναι νόμιμο και σκόπιμο να εξουδετερώσουν στόχους και μπορούν τελικά «να αρνηθούν να χρησιμοποιήσουν ορισμένες κατηγορίες όπλων ή να αρνηθούν να χρησιμοποιήσουν οποιοδήποτε όπλο, εάν φτάσει σε ένα σημείο στο οποίο οι προβλέψεις του υπερβαίνουν τις ίδιες του τις προδιαγραφές» εξηγεί ο Αρκιν.
Τα ρομπότ, εξηγεί, θα γνωρίζουν τι πρέπει να κάνουν επειδή θα είναι προγραμματισμένα με επίσημους κανόνες εμπλοκής, τη διεθνή πολεμική νομοθεσία και διεθνείς συμβάσεις όπως η Συνθήκη της Γενεύης.
Δεδομένου όμως ότι οι στρατιωτικοί δεν θα ενθουσιάζονταν με ένα ηθικό ρομπότ που αρνείται να εκτελέσει διαταγές, οι ερευνητές αναγκάστηκαν να ενσωματώσουν στο σύστημα και χειροκίνητο έλεγχο προτεραιότητας.
Ο Αρκιν αναφέρει ότι το τριετές συμβόλαιό του με το Γραφείο Έρευνας του αμερικανικού στρατού έχει ήδη οδηγήσει στο πρωτότυπο του λογισμικού ηθικής. Διευκρινίζει πάντως ότι το σύστημα απέχει πολύ από το να χρησιμοποιηθεί στη μάχη.

Δεν υπάρχουν σχόλια

Μπορείτε να γράψετε και να σχολιάσετε τα πάντα, αλλά αν το κείμενο σας περιέχει υβριστικούς χαρακτηρισμούς σας ενημερώνουμε ότι δεν θα δημοσιεύεται. Σε περίπτωση καθυστέρησης δημοσίευσης των σχολίων ζητούμε συγγνώμη και παρακαλούμε να μην βγάζετε αυθαίρετα συμπεράσματα. Με σεβασμό και εκτίμηση η διαχείριση του ιστολογίου