Κυριακή 6 Μαΐου 2018

H επέλαση των ρομπότ δολοφόνων [1] …



Ένα μικροσκοπικό quadcopter με διάμετρο μόλις τρία εκατοστά μπορεί να μεταφέρει ένα έως δύο γραμμάρια εκρηκτικής ύλης. Μπορείς εύκολα να παραγγείλεις όσα θες από διάφορους κατασκευαστές drones στην Κίνα. Μπορείς να προγραμματίσεις τον κώδικά του ως εξής: «να χίλιες φωτογραφίες με το είδος των αντικειμένων που θέλω να στοχεύσεις». Ένα γραμμάριο εκρηκτικής ύλης μπορεί να ανοίξει τρύπα σε ατσάλι εννιά χιλιοστών, μπορείς επομένως πιθανά να ανοίξεις μια τρύπα στο κεφάλι κάποιου. Μπορείς να χωρέσεις περίπου τρία εκατομμύρια από αυτά στην καρότσα μιας νταλίκας. Μπορείς να στείλεις τρεις τέτοιες νταλίκες στον Ι-95 [ο βασικός οδικός άξονας της ανατολικής ακτής των ΗΠΑ] και θα έχεις δέκα εκατομμύρια όπλα να επιτίθενται στην Νέα Υόρκη. Δεν χρειάζεται να είναι ιδιαίτερα αποτελεσματικά, αρκεί ένα 5 ως 10% να βρει το στόχο του.
 
Σύντομα θα έχουμε κατασκευαστές που θα παράγουν εκατομμύρια τέτοια όπλα και οι άνθρωποι θα μπορούν να τα αγοράζουν με τον ίδιο τρόπο που αγοράζουν τώρα συμβατικά όπλα, μόνο που εκατομμύρια συμβατικών όπλων δεν μετράνε εκτός κι αν έχεις εκατομμύρια στρατιώτες. Το μόνο που χρειάζεσαι είναι δυο-τρεις ειδικούς να γράψουν τον κώδικα και να τα ενεργοποιήσουν. Μπορείτε να φανταστείτε επομένως ότι στο εγγύς μέλλον, σε διάφορα μέρη του πλανήτη, οι άνθρωποι θα είναι κυνηγημένοι. Θα κρύβονται σε καταφύγια και θα σκαρφίζονται τεχνικές ώστε να μην αναγνωρίζονται. Αυτό είναι λοιπόν το σκοτάδι που φέρνουν τα αυτόνομα οπλικά συστήματα· και το σκοτάδι αυτό ήδη απλώνεται.
Stuart Russell,
καθηγητής πληροφορικής του πανεπιστημίου Berkeley της Καλιφόρνια

Το εφιαλτικό σενάριο του Russell αφορά τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS: lethal autonomous weapons systems). Δηλαδή όπλα που έχουν την ικανότητα να επιλέγουν και να χτυπούν στόχους από μόνα τους· δηλαδή μηχανές που μπορούν να πάρουν την απόφαση να σκοτώσουν ανθρώπους· δηλαδή ρομπότ δολοφόνοι. Ο κόσμος πιάστηκε στον ύπνο όταν ξεκίνησε η χρήση των πολεμικών drones. Τι θα συμβεί τώρα με τα LAWS;
Αν και το υποθετικό παράδειγμα του προλόγου αναφέρεται σε drones, ο κίνδυνος που επισημαίνεται δεν έχει να κάνει μόνο με αυτά. Σήμερα, η πολεμική χρήση των drones είναι πλέον κανονικότητα – τουλάχιστον δέκα κράτη τα χρησιμοποιούν επίσημα σε στρατιωτικές επιχειρήσεις. Τα αυτοδιευθυνόμενα αυτοκίνητα είναι επίσης πραγματικότητα. Πριν είκοσι χρόνια ένας υπολογιστής νίκησε τον Κασπάροφ στο σκάκι και πιο πρόσφατα ένας άλλος δίδαξε τον εαυτό του πώς να κερδίζει τους ανθρώπους στο Go, ένα κινέζικο παιχνίδι στρατηγικής που δεν περιορίζεται από μοτίβα και πιθανότητες. Τον Ιούλιο του 2016, η αστυνομία του Ντάλας έστειλε ένα ρομπότ φορτωμένο με εκρηκτικά να εξοντώσει έναν ένοπλο που είχε πυροβολήσει εναντίον αστυνομικών. [2]
Αλλά με τα LAWS, σε αντίθεση με το ρομπότ του Ντάλας, ο άνθρωπος θέτει τις παραμέτρους της επίθεσης χωρίς στην πραγματικότητα να γνωρίζει τον συγκεκριμένο στόχο. Το οπλικό σύστημα ενεργοποιείται, αναζητά οτιδήποτε εμπίπτει εντός των παραμέτρων  του, επιτίθεται και χτυπάει. Παραδείγματα υπαρκτά που μπορεί ακόμη να μην προκαλούν ρίγη τρόμου λόγω αδιαφορίας, είναι ολόκληροι στόλοι πολεμικών πλοίων στην θάλασσα της νότιας Κίνας, τα σύγχρονα στρατιωτικά ραντάρ των περισσότερων κρατών κι ένας μεγάλος αριθμός αρμάτων στο πεδίο της Ευρώπης· υπάρχουν, απλά δεν καταλαβαίνουμε τι σημαίνουν. Πολλαπλασιάστε τώρα όλα αυτά, προσθέστε τις ενεργές πολεμικές συρράξεις, προσθέστε τα δισεκατομμύρια που επενδύονται κατά προτεραιότητα στα σχετικά ερευνητικά προγράμματα, προσθέστε τις φιλοδοξίες και τις φοβίες των ανταγωνιζόμενων κρατών, προσθέστε την υπόγεια δράση κρατικών και παρακρατικών δομών και μπορείτε να φανταστείτε ανησυχητικές καταλήξεις: να γίνονται στόχοι όλοι οι σταθμοί ενέργειας, όλα τα σχολεία, όλα τα νοσοκομεία, όλοι οι άντρες σε ηλικία στράτευσης, όλοι οι άντρες που κουβαλάνε όπλο, όλοι οι άνθρωποι που ακολουθούν ένα συγκεκριμένο ενδυματολογικό κώδικα… Βάλτε την φαντασία σας να δουλέψει.
Ενώ αυτά ακούγονται σαν σενάρια τρόμου που πληρώνεις για να δεις στο σινεμά, τα ρομπότ δολοφόνοι θα είναι σύντομα στο κατώφλι μας χάρη στις ΗΠΑ, τη Ρωσία και την Κίνα που καθοδηγούν την κούρσα ανάπτυξής τους. «Στην πραγματικότητα δεν υπάρχει κάποια τεχνολογία που να λείπει» αναφέρει ο Russell. «Όλα τα απαραίτητα τεχνολογικά στοιχεία είναι ήδη διαθέσιμα στο εμπόριο. Είναι απλά θέμα του μεγέθους της χρηματοδότησης που θα επενδυθεί».


Το αμερικανικό Χ-47Β σε δοκιμαστική πτήση πάνω από το Ατλαντικό.

Τα LAWS διακρίνονται γενικά σε τρεις κατηγορίες. Με βάση μια κατηγοριοποίηση που είχε προτείνει η Human Right Watch και σήμερα είναι γενικά αποδεκτή, στην πρώτη κατηγορία ο άνθρωπος είναι εντός της διαδικασίας (human in the loop) – η μηχανή εκτελεί την αποστολή της υπό ανθρώπινο έλεγχο, φτάνει στον στόχο και περιμένει εντολή για να χτυπήσει. Στην δεύτερη, ο άνθρωπος είναι επί της διαδικασίας (human on the loop) – η μηχανή εκτελεί την αποστολή και χτυπάει τον στόχο, αλλά ο άνθρωπος μπορεί να παρέμβει, να αναιρέσει τον προγραμματισμό της και να την σταματήσει. Και τέλος στην τρίτη, ο άνθρωπος είναι εκτός διαδικασίας (out of the loop) – η μηχανή εκτελεί την αποστολή της κι αυτό είναι όλο· ούτε έλεγχος, ούτε ανάκληση, ούτε διακοπή λειτουργίας.
Ησυζήτηση γύρω από τα αυτόνομα ρομποτικά όπλα δεν έχει τίποτε το μελλοντολογικό· τα LAWS είναι κατά πολλούς τρόπους ήδη εδώ. Πολλά κράτη έχουν αμυντικά συστήματα με αυτόνομες λειτουργίες που μπορούν να επιλέξουν και να χτυπήσουν στόχους χωρίς ανθρώπινη παρέμβαση – θεωρητικά αναγνωρίζουν επιθετικές ενέργειες κι ενεργοποιούνται για να τις εξουδετερώσουν. Στις περισσότερες περιπτώσεις, υπάρχει τυπικά η δυνατότητα ανθρώπινης παρέμβασης, αλλά αυτά τα οπλικά συστήματα είναι σχεδιασμένα για καταστάσεις που τα πράγματα εξελίσσονται ραγδαία, επομένως είναι πρακτικά αδύνατο να μπλοκαριστούν με ανθρώπινη πρωτοβουλία. Οι ΗΠΑ, για παράδειγμα, έχουν το σύστημα αεράμυνας Patriot για προστασία εναντίον πυραύλων, αεροπλάνων και drones, ενώ το αμερικανικό πολεμικό ναυτικό διαθέτει το ανάλογο Aegis.
Μέχρι τώρα, όσα κράτη έχουν ανοιχτά προχωρήσει στη χρήση LAWS υποστηρίζουν – εννοείται! – ότι το κάνουν για αμυντικούς λόγους· ότι η τελική απόφαση για χρήση φονικής δύναμης δεν έχει εκχωρηθεί στους αλγόριθμους της μηχανής· ότι συντελούν στον εξορθολογισμό της χρήσης βίας σε περιπτώσεις «αυτοάμυνας»· ότι επιτρέπουν στην οριστική απόσυρση απαγορευμένων όπλων, όπως οι νάρκες· ότι βελτιώνουν την ανταπόκριση σε περιπτώσεις ασύμμετρων απειλών, εκεί που ο ανθρώπινος παράγοντας υστερεί στο να αντιληφθεί έγκαιρα τον κίνδυνο. Η επιχειρηματολογία περί «αμυντικών όπλων» είναι φυσικά ατελείωτη· εξάλλου και τα πυρηνικά την «άμυνα» υπηρετούσαν. Πέρα από την προπαγανδιστική φιλολογία, η διάκριση μεταξύ «αμυντικών» κι «επιθετικών» συστημάτων που κινούνται είτε εντελώς αυτόνομα ή μετά από έγκριση κι έλεγχο, είναι ολοφάνερα θολή. Χαρακτηριστικό παράδειγμα είναι το νοτιοκορεατικό SGR-A1 (της Samsung – εκτός από state of the art έξυπνα κινητά, βγάζει κι έξυπνες κιμαδομηχανές), ένα αυτόνομο σταθερό ρομπότ, που έχει εγκατασταθεί κατά μήκος της αποστρατικοποιημένης ζώνης μεταξύ βορείου και νοτίου Κορέας και μπορεί να εξοντώσει οποιονδήποτε επιχειρήσει να κινηθεί εντός της. Το μαύρο μεταλλικό περιστρεφόμενο κουτί είναι οπλισμένο με πολυβόλο κι εκτοξευτή χειροβομβίδων. Η Νότια Κορέα υποστηρίζει ότι το ρομπότ στέλνει σήμα σε έναν χειριστή προκειμένου να ενεργοποιηθεί, επομένως υπάρχει ο ανθρώπινος παράγοντας πριν από κάθε απόφαση για χρήση πυρών, αλλά υπάρχουν πολλές μαρτυρίες ότι τα ρομπότ έχουν κι αυτόνομη λειτουργία. Ποια λειτουργία είναι κάθε φορά ενεργή; Κανείς δεν ξέρει…
Εντωμεταξύ, καθαρά επιθετικά συστήματα σε default φονική λειτουργία υπάρχουν ήδη. Πάρτε για παράδειγμα το ισραηλινό Harpy και το δεύτερης γενιάς Harop, που εισέρχεται στο πεδίο, περιπλανιέται πετώντας μέχρι να εντοπίσει κάποιο στόχο κι επιτίθεται σαν καμικάζι, μετατρεπόμενο σε βόμβα. Το Harpy είναι πλήρως αυτόνομο· το Harop είναι της κατηγορίας «human on the loop». Τον Απρίλιο του 2016 έγινε γνωστό ότι ένα ισραηλινό Harop χτύπησε ένα λεωφορείο γεμάτο αρμένιους στην περιοχή του Ναγκόρνο-Καραμπάχ, όπου Αρμενία και Αζερμπαϊτζάν συγκρούονται στρατιωτικά από την εποχή της ανεξαρτησίας των δύο κρατών. Σύμφωνα με τα ρεπορτάζ, το Ισραήλ έχει πουλήσει το καμικάζι drone σε πέντε κράτη τουλάχιστον. [3]
[…]
…η συνέχεια στο έντυπο τεύχος του Cyborg.
σημεία διακίνησης ]

Harry Tuttle

Ένας πύραυλος LRASM εκτοξεύεται από ένα Β-1 προς αναζήτηση στόχου.

ΣΗΜΕΙΩΣΕΙΣ

1. Η επέλαση των ρομπότ δολοφόνων στηρίχτηκε στα άρθρα:
– Killer Robots Are Coming And These People Are Trying To Stop Them
– Why Should We Ban Autonomous Weapons? To Survive
– AI Could Revolutionize War as Much as Nukes
– Στο video-ντοκιμαντέρ The Dawn of Killer Robots
– Και στην έκθεση Mapping the Development of Autonomy in Weapon Systems του Stockholm International Peace Research Institute
επιστροφή ]
2. Στις 8 Ιουλίου 2016 στο Ντάλας, κατά τη διάρκεια μιας ειρηνικής διαδήλωσης διαμαρτυρίας κατά της αστυνομικής βίας, μετά από επαναλαμβανόμενες δολοφονίες αφροαμερικανών από αστυνομικούς, ο 25χρονος βετεράνος του Αφγανιστάν Micah Xavier Johnson οχυρώθηκε στο ψηλότερο σημείο ενός λόφου κι άρχισε να πυροβολεί κατά των αστυνομικών, τραυματίζοντας τρεις και σκοτώνοντας πέντε. Μετά από καταδίωξη ο Johnson αποκλείστηκε στον δεύτερο όροφο ενός γκαράζ. Ύστερα από πολύωρες διαπραγματεύσεις, η αστυνομία έστειλε εναντίον του ένα ρομπότ που χρησιμοποιείται σε απενεργοποιήσεις βομβών, τροποποιημένο ώστε να κουβαλάει έναν εκρηκτικό μηχανισμό. Όταν πλησίασε τον Johnson, ενεργοποίησε τον μηχανισμό σκοτώνοντάς τον. Μολονότι ήταν ένας απλός ρομποτικός μηχανισμός, χειριζόμενος από μακριά, η περίπτωση του Ντάλας θεωρείται ως η «πρώτη επίσημη» χρήση ρομπότ δολοφόνου από αστυνομική δύναμη.
επιστροφή ]
3. Διαβάστε στο παράρτημα το ρεπορτάζ της Washington Post «Ισραηλινό καμικάζι-drone εντοπίστηκε στις συγκρούσεις στο Ναγκόρνο-Καραμπάχ».
επιστροφή ]


Aπό:http://www.sarajevomag.gr/cyborg/issues/11/i11_p57_killer.html
  



http://gregordergrieche.blogspot.gr/2018/05/h-1.html#more

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου