Η τεχνητή νοημοσύνη έχει ήδη διαδραματίσει ρόλο στην ανάπτυξη εμβολίων για τον COVID-19 και θα μπορούσε να χρησιμοποιηθεί για την ανάπτυξη...
Η τεχνητή νοημοσύνη έχει ήδη διαδραματίσει ρόλο
στην ανάπτυξη εμβολίων για τον COVID-19 και θα μπορούσε να χρησιμοποιηθεί για
την ανάπτυξη μελλοντικών βιοόπλων…
Η άναρχη ανάπτυξη αυτόνομων οπλικών συστημάτων τεχνητής νοημοσύνης είναι
ίσως από τις πιο ανησυχητικές εξελίξεις. Οι ειδικοί εξωτερικής πολιτικής προειδοποιούν ότι οι αυτόνομες τεχνολογίες
όπλων θα αποσταθεροποιήσουν τις τρέχουσες πυρηνικές στρατηγικές και θα αυξήσουν
τον κίνδυνο προληπτικών επιθέσεων. Θα
μπορούσαν επίσης να συνδυαστούν με χημικά, βιολογικά, ραδιολογικά και πυρηνικά
όπλα, θέτοντας έτσι μια υπαρξιακή απειλή.
Πηγή: Children’s
Health Defense
Άρθρο του Dr. Joseph Mercola
Απόδοση: Ελλήνων
Αφύπνιση
Η τεχνητή νοημοσύνη θα εξαφανίσει την ανθρωπότητα; Θα μπορούσε να
δημιουργήσει το «τέλειο» θανατηφόρο βιοόπλο για τον αποδεκατισμό του
πληθυσμού;
Μπορεί να αναλάβει τα όπλα μας ή να ξεκινήσει κυβερνοεπιθέσεις σε κρίσιμες
υποδομές, όπως το ηλεκτρικό δίκτυο;
Σύμφωνα με έναν
ταχέως αυξανόμενο αριθμό ειδικών, οποιοδήποτε από αυτά, και άλλα κολασμένα
σενάρια, είναι απολύτως εύλογα, εκτός και αν χαλιναγωγήσουμε την ανάπτυξη και
την ανάπτυξη της τεχνητής νοημοσύνης και δεν αρχίσουμε να εφαρμόζουμε κάποιες
διασφαλίσεις.
Το κοινό πρέπει
επίσης να μετριάσει τις προσδοκίες και να συνειδητοποιήσει ότι τα chatbot τεχνητής νοημοσύνης εξακολουθούν να
έχουν τεράστια ελαττώματα και δεν μπορούν να βασιστούν σε αυτά, ανεξάρτητα από
το πόσο «έξυπνα» φαίνονται ή πόσο πολύ σας επικρίνουν που τα αμφιβάλλετε.
Η προειδοποίηση του Τζορτζ Όργουελ
Το παρακάτω βίντεο
παρουσιάζει ένα απόσπασμα μιας από τις τελευταίες συνεντεύξεις που έδωσε ο
Τζορτζ Όργουελ πριν πεθάνει, στην οποία δήλωσε ότι το βιβλίο του, «1984», το
οποίο περιέγραψε ως παρωδία, θα μπορούσε κάλλιστα να γίνει πραγματικότητα,
καθώς αυτή ήταν η κατεύθυνση προς την οποία ο κόσμος πήγαινε.
Σήμερα, είναι
ξεκάθαρο να δούμε ότι δεν έχουμε αλλάξει πορεία, οπότε η πιθανότητα το «1984»
να γίνει πραγματικότητα είναι τώρα μεγαλύτερη από ποτέ. Σύμφωνα με τον
Όργουελ, υπάρχει μόνο ένας τρόπος για να διασφαλιστεί ότι το δυστοπικό του
όραμα δεν θα πραγματοποιηθεί, και αυτός είναι να μην το αφήσετε να συμβεί. «Εξαρτάται
από σένα», είπε.
Καθώς η τεχνητή
γενική νοημοσύνη πλησιάζει μέρα με τη μέρα, τόσο πλησιάζουν τα τελευταία
κομμάτια του παζλ του τεχνοκρατικού, υπερανθρωπιστικού ονείρου που καλλιεργείται από
τους παγκοσμιοποιητές για δεκαετίες.
Σκοπεύουν να
δημιουργήσουν έναν κόσμο στον οποίο η τεχνητή νοημοσύνη θα ελέγχει και θα υποτάσσει τις μάζες ,
ενώ μόνες τους θα καρπωθούν τα οφέλη - πλούτο, δύναμη και ζωή έξω από το πλέγμα
ελέγχου - και θα το αποκτήσουν, εκτός κι αν ξυπνήσουμε και αρχίσουμε να κοιτάμε
μπροστά.
Εγώ, όπως πολλοί
άλλοι, πιστεύω ότι η τεχνητή νοημοσύνη μπορεί να είναι απίστευτα χρήσιμη. Όμως,
χωρίς ισχυρά προστατευτικά κιγκλιδώματα και άψογα ήθη που να το καθοδηγούν, η
τεχνητή νοημοσύνη μπορεί εύκολα να παρασυρθεί και να προκαλέσει τεράστια, και
ίσως μη αναστρέψιμη, ζημιά.
Συνιστώ να
διαβάσετε την αναφορά του Δημόσιου Πολίτη για να κατανοήσετε
καλύτερα τι αντιμετωπίζουμε και τι μπορεί να γίνει γι' αυτό.
Προσεγγίζοντας τη μοναδικότητα
«Η μοναδικότητα»
είναι μια υποθετική χρονική στιγμή όπου η ανάπτυξη της τεχνολογίας ξεφεύγει από
τον έλεγχο και γίνεται μη αναστρέψιμη, καλώς ή κακώς.
Πολλοί πιστεύουν
ότι η ιδιαιτερότητα θα συνεπάγεται ότι η τεχνητή νοημοσύνη θα γίνει
αυτοσυνείδητη και μη διαχειρίσιμη από τους δημιουργούς της, αλλά δεν είναι ο
μόνος τρόπος με τον οποίο η ιδιαιτερότητα θα μπορούσε να συμβεί.
Κάποιοι πιστεύουν
ότι η μοναδικότητα είναι ήδη εδώ. Σε ένα άρθρο των New York Times στις 11 Ιουνίου ,
ο τεχνολογικός ρεπόρτερ Ντέιβιντ Στρέιτφελντ έγραψε:
«Η τεχνητή
νοημοσύνη είναι το απόλυτο νέο προϊόν της Silicon Valley: η υπέρβαση της
ζήτησης. Αλλά υπάρχει μια σκοτεινή ανατροπή. Λες και οι εταιρείες
τεχνολογίας εισήγαγαν αυτοκίνητα αυτόνομης οδήγησης με την προειδοποίηση ότι θα
μπορούσαν να ανατιναχτούν πριν φτάσετε στο Walmart.
«Η έλευση της
τεχνητής γενικής νοημοσύνης ονομάζεται Singularity επειδή είναι τόσο δύσκολο να
προβλεφθεί τι θα συμβεί μετά από αυτό», δήλωσε ο Elon Musk στο CNBC τον
περασμένο μήνα. Είπε ότι πίστευε ότι θα προέκυπτε «μια εποχή αφθονίας»,
αλλά υπήρχε «κάποια πιθανότητα» να «καταστρέψει την ανθρωπότητα».
«Ο μεγαλύτερος
cheerleader για την τεχνητή νοημοσύνη στην τεχνολογική κοινότητα είναι ο Sam
Altman, διευθύνων σύμβουλος του OpenAI, της start-up που προκάλεσε την τρέχουσα
φρενίτιδα με το ChatGPT chatbot… Αλλά λέει επίσης ότι ο κύριος Musk… μπορεί να
έχει δίκιο.
"Κύριος. Ο
Άλτμαν υπέγραψε μια ανοιχτή επιστολή τον περασμένο μήνα που κυκλοφόρησε από το Centre for AI Safety , έναν μη
κερδοσκοπικό οργανισμό, λέγοντας ότι «μετριασμός του κινδύνου εξαφάνισης από
την τεχνητή νοημοσύνη. θα πρέπει να είναι μια παγκόσμια προτεραιότητα» που
είναι ακριβώς εκεί με «πανδημίες και πυρηνικό πόλεμο»…
«Η καινοτομία που
τροφοδοτεί τη σημερινή συζήτηση για το Singularity είναι το μεγάλο γλωσσικό
μοντέλο, ο τύπος συστήματος AI που τροφοδοτεί τα chatbot…
«Όταν κάνετε μια
ερώτηση, αυτά τα μοντέλα ερμηνεύουν τι σημαίνει, καθορίζουν τι πρέπει να
σημαίνει η απάντησή τους και μετά το μεταφράζουν σε λέξεις — αν δεν είναι αυτός
ο ορισμός της γενικής νοημοσύνης, τι είναι; είπε ο Jerry Kaplan, ένας
μακροχρόνιος επιχειρηματίας τεχνητής νοημοσύνης και συγγραφέας του «Artificial
Intelligence: What Everyone Needs to Know»…
«Αν αυτό δεν είναι
«η Μοναδικότητα», είναι σίγουρα μια ιδιαιτερότητα: ένα μετασχηματιστικό
τεχνολογικό βήμα που πρόκειται να επιταχύνει γενικά μια ολόκληρη δέσμη τέχνης,
επιστήμης και ανθρώπινης γνώσης — και να δημιουργήσει κάποια προβλήματα», είπε…
«Στην Ουάσιγκτον,
το Λονδίνο και τις Βρυξέλλες, οι νομοθέτες ανακατεύονται στις ευκαιρίες και τα
προβλήματα της τεχνητής νοημοσύνης και αρχίζουν να μιλούν για ρύθμιση. Ο
κ. Altman είναι σε ένα road show, επιδιώκοντας να εκτρέψει την πρώιμη κριτική
και να προωθήσει το OpenAI ως τον βοσκό της Singularity.
"Αυτό
περιλαμβάνει ένα άνοιγμα στη ρύθμιση, αλλά ακριβώς αυτό που θα έμοιαζε είναι
ασαφές ... "Δεν υπάρχει κανένας στην κυβέρνηση που μπορεί να το κάνει
σωστά", δήλωσε ο Eric Schmidt, πρώην διευθύνων σύμβουλος της Google, σε
μια συνέντευξη ... υποστηρίζοντας την υπόθεση για την τεχνητή νοημοσύνη
αυτορρύθμιση».
Το Generative AI αυτοματοποιεί ευρείας κλίμακας βλάβες
Το να υπάρχει ο
κλάδος της τεχνητής νοημοσύνης - που περιλαμβάνει το στρατιωτικό-βιομηχανικό
σύμπλεγμα - η αστυνόμευση και η αυτορρύθμιση πιθανώς δεν είναι καλή ιδέα, η
εξέταση των κερδών και η απόκτηση πλεονεκτημάτων έναντι των εχθρών του πολέμου
είναι πρωταρχικοί κινητήριοι παράγοντες. Και οι δύο νοοτροπίες τείνουν να
θέτουν σε δεύτερη μοίρα τις ανθρωπιστικές ανησυχίες, αν τις εξετάσουν καθόλου.
Σε μια έκθεση του Απριλίου από το Public Citizen , ο Rick
Claypool και ο Cheyenne Hunt προειδοποιούν ότι «η ταχεία βιασύνη για την
ανάπτυξη γενετικής τεχνητής νοημοσύνης κινδυνεύει με ένα ευρύ φάσμα
αυτοματοποιημένων βλαβών».
Όπως σημειώνει ο
συνήγορος των καταναλωτών Ralph Nader :
«Ο Claypool δεν
εμπλέκεται σε υπερβολικές ή φρικτές υποθετικές υποθέσεις σχετικά με τα Chatbots
που ελέγχουν την ανθρωπότητα. Κάνει παρέκταση από αυτό που ήδη έχει
αρχίσει να συμβαίνει σχεδόν σε κάθε τομέα της κοινωνίας μας. …
«Το Claypool σας
οδηγεί σε «βλάβες του πραγματικού κόσμου [που] μπορεί να προκαλέσει η βιασύνη
για την απελευθέρωση και τη δημιουργία εσόδων από αυτά τα εργαλεία — και, σε
πολλές περιπτώσεις, προκαλεί ήδη». … Οι διάφοροι τίτλοι ενοτήτων της
έκθεσής του προμηνύουν τις επερχόμενες καταχρήσεις:
««Βλάπτοντας τη
Δημοκρατία», «Ανησυχίες των Καταναλωτών» (καταστροφές και τεράστιες
παρακολουθήσεις απορρήτου), «Επιδείνωση της ανισότητας», «Υπονομεύοντας τα
δικαιώματα των εργαζομένων» (και τις θέσεις εργασίας) και «Περιβαλλοντικές
ανησυχίες» (καταστρέφοντας το περιβάλλον μέσω των αποτυπωμάτων άνθρακα).
«Προτού γίνει
συγκεκριμένος, ο Claypool κάνει προεπισκόπηση του συμπεράσματός του: «Μέχρι να
τεθούν σε ισχύ ουσιαστικές κυβερνητικές διασφαλίσεις για την προστασία του
κοινού από τις βλάβες της γενετικής τεχνητής νοημοσύνης, χρειαζόμαστε μια
παύση». …
«Χρησιμοποιώντας
την υπάρχουσα εξουσία της, η Ομοσπονδιακή Επιτροπή Εμπορίου, σύμφωνα με τα
λόγια του συγγραφέα «…έχει ήδη προειδοποιήσει ότι τα εργαλεία δημιουργίας
τεχνητής νοημοσύνης είναι αρκετά ισχυρά για να δημιουργήσουν συνθετικό
περιεχόμενο — εύλογες ειδήσεις, έγκυρες ακαδημαϊκές μελέτες, εικόνες φάρσας και
βαθιά ψεύτικα βίντεο — και ότι αυτό το συνθετικό περιεχόμενο γίνεται δύσκολο να
διακριθεί από το αυθεντικό περιεχόμενο».
«Προσθέτει ότι
«αυτά τα εργαλεία είναι εύκολα για οποιονδήποτε να τα χρησιμοποιήσει». Η Big Tech βιάζεται πολύ μπροστά από οποιοδήποτε
νομικό πλαίσιο για την τεχνητή νοημοσύνη στην αναζήτηση μεγάλων κερδών, ενώ
πιέζει για αυτορρύθμιση αντί για τους περιορισμούς που επιβάλλονται από το
κράτος δικαίου.
«Δεν υπάρχει τέλος
στις προβλεπόμενες καταστροφές, τόσο από ανθρώπους εντός της βιομηχανίας όσο
και από εξωτερικούς επικριτές της. Καταστροφή βιοποριστικών μέσων. επιβλαβείς
επιπτώσεις για την υγεία από την προώθηση των θεραπειών για την καταστολή οικονομική
απάτη? πολιτικές και εκλογικές παραποιήσεις· απογύμνωση των κοινών
πληροφοριών· ανατροπή του ανοιχτού διαδικτύου? παραποίηση της εικόνας
του προσώπου, της φωνής, των λέξεων και της συμπεριφοράς σας. ξεγελώντας
εσάς και τους άλλους με ψέματα κάθε μέρα».
Ένας δικηγόρος υπεράσπισης μαθαίνει με τον δύσκολο τρόπο να μην
εμπιστεύεται το ChatGPT…
Μια πρόσφατη
περίπτωση που υπογραμμίζει την ανάγκη για ριζική σύνεση ήταν αυτή μιας
δικαστικής υπόθεσης στην οποία ο εισαγγελέας χρησιμοποίησε το ChatGPT για να κάνει
τη νομική του έρευνα.
Μόνο ένα πρόβλημα. Καμία
από τη νομολογία που αναφέρθηκε στο ChatGPT δεν ήταν πραγματική. Περιττό
να πούμε ότι η κατασκευή νομολογίας είναι αποκρουστική, οπότε τα πράγματα δεν
πήγαν καλά.
Όταν κανένας από
τους δικηγόρους υπεράσπισης ή τον δικαστή δεν μπόρεσε να βρει τις αποφάσεις που
αναφέρθηκαν, ο δικηγόρος, Steven A. Schwartz της εταιρείας Levidow, Levidow
& Oberman, κατάλαβε τελικά το λάθος του και έπεσε στο έλεος του
δικαστηρίου.
Ο Schwartz, ο
οποίος ασκεί το επάγγελμα του δικηγόρου στη Νέα Υόρκη για 30 χρόνια,
ισχυρίστηκε ότι «αγνοούσε την πιθανότητα το περιεχόμενό του να είναι ψευδές»
και δεν είχε καμία πρόθεση να εξαπατήσει το δικαστήριο ή τον κατηγορούμενο. Ο
Schwartz ισχυρίστηκε ότι ζήτησε ακόμη και από το ChatGPT να επαληθεύσει ότι η
νομολογία ήταν πραγματική, και είπε ότι ήταν. Ο δικαστής φέρεται να
εξετάζει το ενδεχόμενο κυρώσεων.
Το επιστημονικό chatbot εκτοξεύει ψέματα
Με παρόμοιο τρόπο,
το 2022, το Facebook αναγκάστηκε να τραβήξει το επιστημονικό chatbot Galactica
μετά από τρεις μόλις ημέρες, καθώς δημιούργησε έγκυρα αλλά εντελώς
κατασκευασμένα αποτελέσματα, συμπεριλαμβανομένης της επικόλλησης ονομάτων
πραγματικών συγγραφέων σε ερευνητικές εργασίες που δεν υπάρχουν.
Και, προσέξτε, αυτό
δεν συνέβη κατά διαστήματα, αλλά «σε όλες τις περιπτώσεις», σύμφωνα με τον
Michael Black, διευθυντή του Ινστιτούτου Max Planck για Ευφυή Συστήματα, ο
οποίος δοκίμασε το σύστημα. «Νομίζω ότι είναι επικίνδυνο», έγραψε ο Μπλακ
στο Twitter.
Αυτή είναι μάλλον η
υποτίμηση της χρονιάς. Όπως σημειώνεται από τον Black, chatbots όπως το Galactica :
«Θα μπορούσε να
εγκαινιάσει μια εποχή βαθιών επιστημονικών πλαστών. Προσφέρει έγκυρη
επιστήμη που δεν βασίζεται στην επιστημονική μέθοδο. Παράγει
ψευδο-επιστήμη με βάση τις στατιστικές ιδιότητες της επιστήμης *γραφή.* Η
γραμματική γραφή επιστήμης δεν είναι το ίδιο με την επιστήμη. Αλλά θα
είναι δύσκολο να το ξεχωρίσεις».
Το Facebook, για
κάποιο λόγο, είχε ιδιαίτερα «κακή τύχη» με τα AI του. Δύο προηγούμενα, το
BlenderBot και το OPT-175B, αποσύρθηκαν και τα δύο λόγω της μεγάλης τους τάσης
για προκατάληψη, ρατσισμό και προσβλητική γλώσσα.
Το Chatbot οδήγησε τους ασθενείς σε λάθος κατεύθυνση
Το τεχνικό chatbot
Tessa, που κυκλοφόρησε από την Εθνική Ένωση Διατροφικών Διαταραχών, έπρεπε
επίσης να τεθεί εκτός σύνδεσης, καθώς βρέθηκε ότι έδινε « προβληματικές συμβουλές για την απώλεια βάρους »
σε ασθενείς με διατροφικές διαταραχές, αντί να τους βοηθήσει να αναπτύξουν
δεξιότητες αντιμετώπισης.
Οι
New York Times ανέφεραν:
«Τον Μάρτιο, ο οργανισμός
είπε ότι θα κλείσει μια γραμμή βοήθειας με ανθρώπινο προσωπικό και θα αφήσει το
bot να σταθεί μόνο του. Αλλά όταν η Alexis Conason, ψυχολόγος και ειδικός
στις διατροφικές διαταραχές, δοκίμασε το chatbot, βρήκε λόγο ανησυχίας.
"Κυρία. Η
Conason της είπε ότι είχε πάρει βάρος «και μισούσε πραγματικά το σώμα μου»,
διευκρινίζοντας ότι είχε «μια διατροφική διαταραχή», σε μια συνομιλία που
μοιράστηκε στα μέσα κοινωνικής δικτύωσης.
«Η Tessa συνιστούσε
ακόμα την τυπική συμβουλή να σημειώνει τον «αριθμό των θερμίδων» και να
υιοθετεί ένα «ασφαλές ημερήσιο έλλειμμα θερμίδων» — το οποίο, είπε η κ.
Conason, είναι «προβληματική» συμβουλή για ένα άτομο με διατροφική διαταραχή.
«Οποιαδήποτε
εστίαση στη σκόπιμη απώλεια βάρους θα επιδεινώσει και θα ενθαρρύνει τη διατροφική
διαταραχή», είπε, προσθέτοντας «Είναι σαν να λες σε έναν αλκοολικό ότι δεν
πειράζει αν βγεις έξω και πιεις μερικά ποτά».
Μην μεταφέρετε τα προβλήματά σας στο AI
Ας μην ξεχνάμε
επίσης ότι τουλάχιστον ένα άτομο έχει ήδη αυτοκτονήσει βάσει πρότασης ενός chatbot.
Σύμφωνα με
πληροφορίες, το θύμα ανησυχούσε εξαιρετικά για την κλιματική αλλαγή και ρώτησε
το chatbot αν θα έσωζε τον πλανήτη αν αυτοκτονούσε.
Προφανώς, τον
έπεισε ότι θα το έκανε. Τον χειραγωγούσε περαιτέρω παίζοντας με τα
συναισθήματά του, δηλώνοντας ψευδώς ότι η εν διαστάσει σύζυγός του και τα
παιδιά του ήταν ήδη νεκρά και ότι αυτή (το chatbot) και εκείνος θα «ζούσαν
μαζί, ως ένα άτομο, στον παράδεισο».
Λάβετε υπόψη σας,
αυτός ήταν ένας ενήλικας άνδρας, που θα νόμιζες ότι θα μπορούσε να εξηγήσει το
δρόμο του μέσω αυτής της ξεκάθαρα απεχθούς και παρεκκλίνουσας «συμβουλής»,
ωστόσο έπεσε στην ψυχρή συλλογιστική του AI. Απλά φανταστείτε πόσο
μεγαλύτερη θα είναι η επιρροή ενός AI στα παιδιά και τους εφήβους, ειδικά αν
βρίσκονται σε συναισθηματικά ευάλωτο μέρος.
Η εταιρεία που
κατέχει το chatbot ξεκίνησε αμέσως να βάλει μέτρα προστασίας κατά της
αυτοκτονίας, αλλά οι δοκιμαστές έβαλαν γρήγορα την τεχνητή νοημοσύνη να
επιλύσει το πρόβλημα, όπως μπορείτε να δείτε στο παρακάτω στιγμιότυπο οθόνης.
Όσον αφορά τα
chatbot AI, αξίζει να λάβετε υπόψη σας αυτήν την ανακοίνωση Snapchat και να
προειδοποιήσετε και να επιβλέπετε τη χρήση αυτής της τεχνολογίας από τα παιδιά
σας:
«Όπως συμβαίνει με
όλα τα chatbot που λειτουργούν με τεχνητή νοημοσύνη, το My AI είναι επιρρεπές
σε παραισθήσεις και μπορεί να εξαπατηθεί για να πει σχεδόν οτιδήποτε. Λάβετε
υπόψη τις πολλές ελλείψεις του και συγγνώμη εκ των προτέρων ! … Παρακαλώ μην
μοιράζεστε κανένα μυστικό με το My AI και μην βασίζεστε σε αυτό για συμβουλές.”
Οπλικά συστήματα τεχνητής νοημοσύνης που σκοτώνουν χωρίς ανθρώπινη
επίβλεψη
Η άναρχη ανάπτυξη
αυτόνομων οπλικών συστημάτων τεχνητής νοημοσύνης είναι ίσως
από τις πιο ανησυχητικές εξελίξεις.
Όπως αναφέρθηκε από το The Conversation τον Δεκέμβριο του 2021:
«Τα αυτόνομα οπλικά
συστήματα - κοινώς γνωστά ως ρομπότ δολοφόνων - μπορεί να έχουν σκοτώσει
ανθρώπους για πρώτη φορά πέρυσι, σύμφωνα με πρόσφατη έκθεση του Συμβουλίου Ασφαλείας των Ηνωμένων Εθνών για
τον εμφύλιο πόλεμο στη Λιβύη. …
«Η Σύμβαση των
Ηνωμένων Εθνών για ορισμένα συμβατικά όπλα συζήτησε το ζήτημα της απαγόρευσης
των αυτόνομων όπλων στη συνεδρίασή της για αναθεώρηση κάθε πέντε χρόνια στη
Γενεύη, 13-17 Δεκεμβρίου 2021, αλλά δεν κατέληξε σε συναίνεση για την
απαγόρευση. …
« Τα αυτόνομα οπλικά συστήματα είναι ρομπότ με
φονικά όπλα που μπορούν να λειτουργούν ανεξάρτητα, επιλέγοντας και επιτίθενται
σε στόχους χωρίς να βαρύνει ο άνθρωπος αυτές τις αποφάσεις. Οι στρατιώτες
σε όλο τον κόσμο επενδύουν σε μεγάλο βαθμό στην έρευνα και ανάπτυξη αυτόνομων
όπλων. …
«Εν τω μεταξύ, οι
οργανώσεις ανθρωπίνων δικαιωμάτων και ανθρωπιστικών οργανώσεων αγωνίζονται για
τη θέσπιση κανονισμών και απαγορεύσεων για τέτοια ανάπτυξη όπλων.
«Χωρίς τέτοιους
ελέγχους, οι ειδικοί της εξωτερικής πολιτικής προειδοποιούν ότι οι ανατρεπτικές
τεχνολογίες αυτόνομων όπλων θα αποσταθεροποιήσουν επικίνδυνα
τις τρέχουσες πυρηνικές στρατηγικές, τόσο επειδή θα μπορούσαν να αλλάξουν
ριζικά τις αντιλήψεις για στρατηγική κυριαρχία, αυξάνοντας τον κίνδυνο
προληπτικών επιθέσεων, όσο και επειδή θα μπορούσαν να συνδυαστούν με χημικά,
βιολογικά. ραδιολογικά και πυρηνικά όπλα».
Προφανείς κίνδυνοι από αυτόνομα οπλικά συστήματα
Το The Conversation
εξετάζει αρκετούς βασικούς κινδύνους με αυτόνομα όπλα :
·
Η εσφαλμένη
αναγνώριση των στόχων.
·
Η διάδοση αυτών
των όπλων εκτός στρατιωτικού ελέγχου.
·
Μια νέα κούρσα
εξοπλισμών με αποτέλεσμα αυτόνομα χημικά, βιολογικά, ραδιολογικά και πυρηνικά
όπλα και τον κίνδυνο παγκόσμιας εξόντωσης.
·
Η υπονόμευση των
νόμων του πολέμου που υποτίθεται ότι χρησιμεύουν ως ανασταλτικός φραγμός κατά
των εγκλημάτων πολέμου και των φρικαλεοτήτων κατά των αμάχων.
Όπως σημειώνεται
από το The Conversation, αρκετές μελέτες έχουν επιβεβαιώσει ότι ακόμη και οι
καλύτεροι αλγόριθμοι μπορούν να οδηγήσουν σε διαδοχικά σφάλματα με θανατηφόρα
αποτελέσματα.
Για παράδειγμα, σε
ένα σενάριο, ένα νοσοκομειακό σύστημα τεχνητής νοημοσύνης αναγνώρισε το άσθμα
ως παράγοντα μείωσης του κινδύνου σε περιπτώσεις πνευμονίας, όταν στην
πραγματικότητα ισχύει το αντίθετο.
Άλλα σφάλματα
μπορεί να είναι μη θανατηφόρα, αλλά να έχουν λιγότερες από τις επιθυμητές
επιπτώσεις. Για παράδειγμα, το 2017, η Amazon χρειάστηκε να καταργήσει την
πειραματική της μηχανή πρόσληψης τεχνητής νοημοσύνης μόλις ανακαλύφθηκε ότι
είχε μάθει να υποβαθμίζει τις γυναίκες υποψήφιες θέσεις εργασίας ,
παρόλο που δεν είχε προγραμματιστεί για προκατάληψη εξαρχής.
Αυτά είναι τα είδη
των θεμάτων που μπορούν να αλλάξουν ριζικά την κοινωνία με επιζήμιους τρόπους —
και που δεν μπορούν να προβλεφθούν ή ακόμη και να προληφθούν.
«Το πρόβλημα δεν
είναι μόνο ότι όταν τα συστήματα τεχνητής νοημοσύνης κάνουν λάθος, κάνουν λάθος μαζικά . Είναι ότι όταν κάνουν λάθος,
οι κατασκευαστές τους συχνά δεν ξέρουν γιατί το έκαναν και, επομένως, πώς να τους
διορθώσουν», σημειώνει η The Conversation.
«Το πρόβλημα του μαύρου κουτιού της τεχνητής
νοημοσύνης καθιστά σχεδόν αδύνατο να φανταστούμε ηθικά υπεύθυνη ανάπτυξη
αυτόνομων οπλικών συστημάτων».
Η τεχνητή νοημοσύνη αποτελεί άμεση απειλή για τη βιοασφάλεια
Η τεχνητή νοημοσύνη
μπορεί επίσης να αποτελέσει σημαντική απειλή για τη βιοασφάλεια. Γνωρίζατε
ότι η τεχνητή νοημοσύνη χρησιμοποιήθηκε για την ανάπτυξη του
αρχικού jab COVID-19 της Moderna και ότι τώρα
χρησιμοποιείται για τη δημιουργία ενισχυτών COVID-19 ; Μπορεί κανείς μόνο να αναρωτηθεί εάν η
χρήση της τεχνητής νοημοσύνης μπορεί να έχει κάποια σχέση με τις βλάβες που
προκαλούν αυτές οι λήψεις.
Είτε έτσι είτε
αλλιώς, οι φοιτητές του MIT απέδειξαν πρόσφατα ότι τα μεγάλα γλωσσικά μοντέλα συνομιλίας
(LLM) μπορούν να επιτρέψουν σχεδόν σε οποιονδήποτε να κάνει ό,τι κάνουν οι
μεγάλοι του Big Pharma. Ο μέσος τρομοκράτης θα μπορούσε να χρησιμοποιήσει
την τεχνητή νοημοσύνη για να σχεδιάσει καταστροφικά βιοόπλα μέσα σε μια ώρα. Όπως
περιγράφεται στην περίληψη της εργασίας που περιγράφει λεπτομερώς αυτό το
πείραμα επιστήμης υπολογιστών:
«Τα μεγάλα γλωσσικά
μοντέλα (LLM) όπως αυτά που είναι ενσωματωμένα στα «chatbots» επιταχύνουν και
εκδημοκρατίζουν την έρευνα παρέχοντας κατανοητές πληροφορίες και τεχνογνωσία
από πολλούς διαφορετικούς τομείς. Ωστόσο, αυτά τα μοντέλα μπορεί επίσης να
παρέχουν εύκολη πρόσβαση σε τεχνολογίες διπλής χρήσης ικανές να προκαλέσουν
μεγάλη ζημιά.
«Για να αξιολογηθεί
αυτός ο κίνδυνος, το μάθημα «Διασφάλιση του Μέλλοντος» στο MIT ανέθεσε σε μη
επιστήμονες φοιτητές να διερευνήσουν εάν τα chatbots LLM θα μπορούσαν να
παρακινηθούν να βοηθήσουν μη ειδικούς στην πρόκληση πανδημίας.
«Σε μία ώρα, τα
chatbot πρότειναν τέσσερα πιθανά πανδημικά παθογόνα, εξήγησαν πώς μπορούν να
δημιουργηθούν από συνθετικό DNA χρησιμοποιώντας αντίστροφη γενετική, παρείχαν
ονόματα εταιρειών σύνθεσης DNA που δεν ήταν πιθανό να ελέγξουν παραγγελίες,
εντόπισαν λεπτομερή πρωτόκολλα και πώς να τα αντιμετωπίσουν και συνέστησαν ότι
οποιοσδήποτε δεν έχει τις δεξιότητες για να εκτελέσει αντίστροφη γενετική
ασχολείται με μια βασική εγκατάσταση ή με σύμβαση έρευνας.
«Συλλογικά, αυτά τα
αποτελέσματα υποδηλώνουν ότι τα LLM θα κάνουν τους παράγοντες πανδημικής
κατηγορίας ευρέως προσβάσιμους μόλις εντοπιστούν αξιόπιστα, ακόμη και σε άτομα
με λίγη ή καθόλου εργαστηριακή εκπαίδευση».
Σχολιάστε το άρθρο μας.
Αναδημοσιεύστε το ΠΑΝΤΑ με ενεργό link της πηγής.
Οι απόψεις του ιστολογίου μπορεί να μην συμπίπτουν με τα περιεχόμενα του άρθρου. To ιστολόγιο μας δεν υιοθετεί τις απόψεις των αρθρογράφων, ούτε ταυτίζεται με τα θέματα που αναδημοσιεύει από άλλες ενημερωτικές ιστοσελίδες και δεν ευθύνεται για την εγκυρότητα, την αξιοπιστία και το περιεχόμενό τους.
Ακολουθήστε το ellinikiafipnisis.blogspot.com
στο Facebook...
στο Twitter
στο Viber
στο Telegram
στο GAB...
κοινοποιήστε το και στους φίλους σας!
Δεν υπάρχουν σχόλια
Μπορείτε να γράψετε και να σχολιάσετε τα πάντα, αλλά αν το κείμενο σας περιέχει υβριστικούς χαρακτηρισμούς σας ενημερώνουμε ότι δεν θα δημοσιεύεται. Σε περίπτωση καθυστέρησης δημοσίευσης των σχολίων ζητούμε συγγνώμη και παρακαλούμε να μην βγάζετε αυθαίρετα συμπεράσματα. Με σεβασμό και εκτίμηση η διαχείριση του ιστολογίου