Διαβάζετε τώρα
Οι κίνδυνοι της στρατιωτικής Τεχνητής Νοημοσύνης

Οι κίνδυνοι της στρατιωτικής Τεχνητής Νοημοσύνης

  • του Frank Pasquale

Η πολεμική αεροπορία των ΗΠΑ προβλέπει ένα μέλλον στο οποίο «οι ειδικές δυνάμεις θα μπορούν να στέλνουν σμήνη μηχανικών εντόμων εφοδιασμένων με βιντεο-κάμερες μέσα σε ένα κτίριο στη διάρκεια μιας ομηρείας».

Μια «εταιρεία μικροσυστημάτων» έχει κατασκευάσει ήδη ένα εξαιρετικά μικροσκοπικό ρομπότ με κάμερα και ραδιοσυχνότητες που μοιάζει με κατσαρίδα και μπορεί να διασχίσει έως και 100 μέτρα. Αποτελεί ένα από τα πολλά «βιομιμητικά» όπλα που ήδη βρίσκονται στον ορίζοντα.

Ποιος ξέρει πόσα άλλα τέτοια πειράματα γίνονται για προηγμένα όπλα. Πρόσφατα ένα βιβλίο περιγράφει τον μελλοντικό πόλεμο Κίνας και Ρωσίας με ευρεία χρήση αυτόνομων drones, λέιζερ και δορυφόρων. Το βιβλίο του Π. Σίνγκερ και του Όγκαστ Κόουλ δεν θεωρείται τεχνολογική φαντασία: Περιλαμβάνει εκατοντάδες σημειώσεις που αποδεικνύουν την ανάπτυξη κάθε τεχνολογίας που περιγράφεται. Ανάμεσα σε αυτά υπάρχουν και ρομπότ-δολοφόνοι σε έναν αγώνα μεταξύ των προηγμένων κρατών για το ποιο θα κατασκευάσει το πιο αποτελεσματικό.

Στο παρελθόν, κράτη συμφώνησαν για να απαγορεύσουν τα ιδιαίτερα τρομακτικά νέα όπλα. Μέχρι τα μέσα του 20ού αιώνα οι διεθνείς συμβάσεις απαγόρευαν τα βιολογικά και χημικά όπλα. Η κοινότητα των εθνών έχει απαγορεύσει επίσης τη χρήση τεχνολογίας λέιζερ που τυφλώνουν.

Ένα ισχυρό δίκτυο μη κυβερνητικών οργανώσεων προέτρεψε με επιτυχία τον ΟΗΕ να καλέσει τα κράτη-μέλη να συμφωνήσουν σε παρόμοια απαγόρευση των ρομπότ-δολοφόνων και άλλων όπλων που μπορούν να δράσουν μόνα τους, αυτόνομα, χωρίς άμεσο ανθρώπινο έλεγχο, για να καταστρέψουν κάποιον στόχο.

Και ενώ υπήρξε συζήτηση για τον ορισμό μιας τέτοιας τεχνολογίας, όλοι μπορούμε να φανταστούμε ορισμένα ιδιαίτερα τρομακτικά είδη όπλων που όλα τα κράτη θα πρέπει να συμφωνήσουν να μην κατασκευάσουν ή να αναπτύξουν ποτέ. Ενα drone που σταδιακά θερμαίνει τους στρατιώτες του εχθρού μέχρι θανάτου θα παραβίαζε τις διεθνείς συμβάσεις κατά των βασανιστηρίων. Τα ηχητικά όπλα που έχουν σχεδιαστεί για να καταστρέψουν την ακοή ή την ισορροπία ενός εχθρού θα πρέπει να έχουν παρόμοια μεταχείριση. Μια χώρα που σχεδίασε και χρησιμοποίησε τέτοια όπλα θα πρέπει να εξοριστεί από τη διεθνή κοινότητα.

Και όμως, μερικοί από τους μεγαλύτερους στρατούς του κόσμου φαίνεται να οδεύουν προς ή να έχουν ξεκινήσει την ανάπτυξη τέτοιων όπλων, ακολουθώντας μια λογική αποτροπής: φοβούνται ότι θα συντριβούν από την τεχνητή νοημοσύνη των αντιπάλων τους εάν δεν μπορούν να απελευθερώσουν μια εξίσου ισχυρή δύναμη. Το κλειδί για την επίλυση μιας τέτοιας επικίνδυνης κούρσας εξοπλισμών μπορεί να βρίσκεται στη προληπτική επανεξέταση του τι μπορεί να χρησιμοποιηθεί ως πολεμική τεχνητή νοημοσύνη.

Καθώς ο «πόλεμος επιστρέφει στο σπίτι», η ανάπτυξη στρατιωτικής δύναμης σε χώρες όπως οι ΗΠΑ και η Κίνα είναι μια αυστηρή προειδοποίηση για τους πολίτες τους: όποιες τεχνολογίες ελέγχου και καταστροφής επιτρέψετε στην κυβέρνησή σας να αγοράσει τώρα για χρήση στο εξωτερικό, μπορεί κάλλιστα να χρησιμοποιηθούν εναντίον σας στο μέλλον.

Οποιαδήποτε προσπάθεια κωδικοποίησης του νόμου και της ηθικής σε ρομπότ-δολοφόνους εγείρει τεράστιες πρακτικές δυσκολίες. Ο καθηγητής Πληροφορικής Νόελ Σάρκι υποστήριξε ότι είναι αδύνατο να προγραμματιστεί ένας στρατιώτης-ρομπότ με αντιδράσεις για καθεμία από τις άπειρες καταστάσεις που θα μπορούσαν να προκύψουν στον πυρετό της σύγκρουσης. Όμως ένα αυτόνομο οπλικό σύστημα μέσα στην ομίχλη του πολέμου είναι επικίνδυνο.

Η τυποποίηση των αντιδράσεων των ρομποτικών όπλων μπορεί να είναι αδύνατη. Η μάθηση των μηχανών λειτουργεί καλύτερα όπου υπάρχει ένα τεράστιο σύνολο δεδομένων με σαφώς κατανοητά παραδείγματα καλού και κακού, σωστού και λάθους. Για παράδειγμα, οι εταιρείες πιστωτικών καρτών έχουν βελτιώσει τους μηχανισμούς ανίχνευσης απάτης με συνεχείς αναλύσεις εκατοντάδων εκατομμυρίων συναλλαγών, όπου τα ψευδώς αρνητικά και τα ψευδώς θετικά επισημαίνονται εύκολα με σχεδόν 100% ακρίβεια. Θα ήταν δυνατόν να αναλυθούν έτσι οι εμπειρίες των στρατιωτών στο Ιράκ, αποφασίζοντας εάν θα πυροβολήσουν άτομα που δεν είναι ξεκάθαρο εάν είναι εχθροί ή άμαχοι;

Δεδομένων αυτών των δυσκολιών, είναι δύσκολο να αποφευχθεί το συμπέρασμα ότι η ιδέα «ηθικών» ρομποτικών μηχανών-δολοφόνων δεν είναι ρεαλιστική και είναι πολύ πιθανό να υποστηρίξει επικίνδυνες φαντασιώσεις πολέμων όπου οι επιτιθέμενοι πατούν απλώς κάποια κουμπιά και αποφεύγονται σφαγές αθώων.

Ο Frank Pasquale είναι καθηγητής στη Νομική του Πανεπιστημίου του Μπρούκλιν στη Νέα Υόρκη με τομέα εξειδίκευσης την Τεχνητή Νοημοσύνη, τους αλγορίθμους και τη ρομποτική εκπαίδευση

ΠΗΓΗ