Τεχνητή νοημοσύνη. Το δικαίωμα να σκοτώνεις
Δεν υπάρχει πιο βδελυρό έγκλημα από τη δολοφονία αδυνάτων και ανυπεράσπιστων.
Άντον Πάβλοβιτς Τσέχοφ. Θάλαμος №6
Άντον Πάβλοβιτς Τσέχοφ. Θάλαμος №6
Η τεχνητή νοημοσύνη δεν είναι εγγενώς καλή ή κακή, αλλά μπορεί να χρησιμοποιηθεί για καλούς ή κακούς σκοπούς (αν και αυτές οι αξιολογήσεις είναι πάντα εξαιρετικά υποκειμενικές ή/και πολιτικοποιημένες).
Υπάρχει η άποψη ότι η τεχνητή νοημοσύνη είναι κυρίως μαθηματικά σε συνδυασμό με πολλές ιδέες για αλγόριθμους. Αν θεωρήσουμε αυτή τη διατύπωση όχι μόνο σωστή, αλλά πλήρη και επαρκή, τότε η ανθρωπότητα είναι σίγουρα καταδικασμένη σε θάνατο. Και η εξέγερση των μηχανών (AI) είναι ένα από τα σενάρια που εξετάζονται, παρεμπιπτόντως, από τον ΟΗΕ στη λίστα των πιθανών παγκόσμιων κατακλυσμών.
Όταν κοιτάμε το δικό μας το ρομπότ-Κοσμοναύτη Φιόντορ, είναι δύσκολο να πιστέψεις σε μια τέτοια προοπτική.

Φωτογραφία: Σελίδα Roscosmos στο Facebook
Αν και το ρομπότ Fedor μπορεί να πυροβολεί με δύο χέρια, να κάθεται σε ένα σπάγγο και να δουλεύει με ένα τρυπάνι, αλλά παρ 'όλα αυτά, "είναι πολύ μόνος σε αυτόν τον κόσμο". Αλλά στο Fedor, ολόκληρη η τεχνητή νοημοσύνη δεν συνέκλινε σαν σφήνα.
Επιπλέον, όπως μπορεί να είναι προσβλητικό για τον Roskosmos, δεν έχει καμία απολύτως σχέση με την τεχνητή νοημοσύνη. Αυτό είναι απλώς ένας χειριστής, ο οποίος ελέγχεται από τον χειριστή μέσω ενός ειδικού joystick.
Εισαγωγή
«Οι μηχανές μπορούν να υπερβούν ορισμένους από τους περιορισμούς των σχεδιαστών τους και ότι με αυτόν τον τρόπο μπορούν να είναι και αποτελεσματικές και επικίνδυνες».
Ένας από τους σημαντικότερους στοχαστές των πρώιμων κυβερνητικών συστημάτων, ο Norbert Wiener, έθεσε αυτό το ζήτημα από νωρίς και προειδοποίησε χωρίς αβεβαιότητα για τους κινδύνους που ενέχει η εφαρμογή της μηχανικής ορθολογικότητας στις απείρως πολύπλοκες συνθήκες της ανθρώπινης ύπαρξης.
Αλλά τα αυτόνομα αυτοκίνητα μετακινούνται γρήγορα από την επιστημονική φαντασία στο επιστημονικό γεγονός. Το χαρακτηριστικό αυτής της τεχνολογίας είναι ότι μπορεί υποθετικά να λειτουργεί ανεξάρτητα από τον ανθρώπινο έλεγχο.
Επομένως, η κοινωνία πρέπει να καταλάβει πώς θα πάρουν «αποφάσεις» οι αυτόνομες μηχανές. Αυτό το ζήτημα είναι ιδιαίτερα έντονο σε περιπτώσεις όπου η βλάβη είναι αναπόφευκτη, ανεξάρτητα από το ποια μέτρα ληφθούν.
Ποιον θα πατήσουμε;
Έννοια
Τι σημαίνει τεχνητή νοημοσύνη;
Εδώ, η «Ρωσική Βικιπαίδεια» απέχει πολύ από το να βοηθήσει, όπως και οι περισσότερες επιστημονικές εργασίες Ρώσων επιστημόνων που είναι αφιερωμένες στην τεχνητή νοημοσύνη.
«Οι σύγχρονοι επιστήμονες σκέφτονται βαθιά αντί να σκέφτονται καθαρά. Για να σκεφτείς καθαρά, πρέπει να έχεις κοινή λογική, αλλά μπορείς να σκεφτείς βαθιά ακόμα και όταν είσαι τελείως τρελός».
Νικόλα Τέσλα
Νικόλα Τέσλα
Και δεν πρόκειται καν για επιστημονικά και τεχνολογικά επιτεύγματα, αλλά για εννοιολογική αβεβαιότητα, για να μην αναφέρουμε τις συνοδευτικές φιλοσοφικές, ηθικές πτυχές και ζητήματα ασφάλειας.
Ως εκ τούτου, υπάρχουν φόβοι ότι η τρέχουσα φασαρία για την τεχνητή νοημοσύνη στην Πατρίδα μας τουλάχιστον δεν λαμβάνει υπόψη την ουσία και τις πιθανές συνέπειες της ανάπτυξης και εφαρμογής της τεχνητής νοημοσύνης, ειδικά στον στρατιωτικό τομέα.
AI στα ρωσικά μέσα ενημέρωσης
Offhand - εδώ είναι μερικοί πρόσφατοι τίτλοι από τα ομοσπονδιακά μέσα ενημέρωσης που επιβεβαιώνουν αυτήν την ιδέα:
• Στρατηγικά κρατικά προγράμματα στον τομέα της τεχνητής νοημοσύνης τονώνουν τα επιτεύγματα της ρωσικής επιστήμης.
• Η τεχνητή νοημοσύνη θα σκεφτεί για τους επιστήμονες.
• Η Αγία Πετρούπολη περιλαμβάνει την τεχνητή νοημοσύνη.
• Το blockchain και η τεχνητή νοημοσύνη θα βοηθήσουν στις εκλογές για την Κρατική Δούμα (προφανώς, μιλάμε για ηλεκτρονική ψηφοφορία).
Και στρατιωτικές τροποποιήσεις.
• Το Καλάσνικοφ δημιουργεί μια αυτόματη μηχανή με τεχνητή νοημοσύνη.
• Το τανκ T-14 «Armata» θα λάβει τεχνητή νοημοσύνη.
Όλοι αυτοί οι τίτλοι, για να μην αναφέρουμε το περιεχόμενο των άρθρων, εγείρουν αμφιβολίες ακόμη και στη φυσική ευφυΐα των συντακτών τους.
Η τεχνητή νοημοσύνη στην πολιτική σφαίρα, όπως βλέπουμε, ειδικά μετά τις 19 Σεπτεμβρίου, δεν γίνεται επίσης ξεκάθαρα αντιληπτή από τη ρωσική κοινωνία και οι άνθρωποι απλά δεν σκέφτονται τις στρατιωτικές εφαρμογές.
Πιθανώς, η τεχνητή νοημοσύνη δεν δημιουργεί μόνο ευκαιρίες, αλλά και κινδύνους.
Κίνδυνος
Πρώτα είναι η χρήση τεχνητής νοημοσύνης στην ανάπτυξη αυτόνομων όπλων. Οι ειδικοί πιστεύουν ότι εάν αναπτυχθεί ένας αυτόνομος αγώνας εξοπλισμών, θα είναι εξαιρετικά δύσκολο να περιοριστεί.
Η δεύτερη ο κίνδυνος συνδέεται με τη χρήση της τεχνητής νοημοσύνης στον τομέα της χειραγώγησης της κοινής γνώμης. Τα κοινωνικά δίκτυα, χάρη στους αυτόματους αλγόριθμους, είναι πολύ αποτελεσματικά στο στοχευμένο μάρκετινγκ. Ως εκ τούτου, η τεχνητή νοημοσύνη μπορεί να εμπλέκεται στη διάδοση της προπαγάνδας που είναι πιο πειστική για έναν συγκεκριμένο κύκλο ανθρώπων, ανεξάρτητα από το πόσο αληθείς είναι οι πληροφορίες.
Третья - Παραβίαση της ιδιωτικής ζωής. Αυτή τη στιγμή, είναι δυνατό να παρακολουθούμε και να αναλύουμε κάθε βήμα ενός ατόμου στην ιδιωτική και δημόσια ζωή του. Οι μηχανισμοί ελέγχου τεχνητής νοημοσύνης μπορούν να προκαλέσουν τεράστια ζημιά στην ασφάλεια και το απόρρητο.
Τέταρτον η απειλή συνδέεται με μια αναντιστοιχία μεταξύ των στόχων ενός ατόμου και μιας έξυπνης μηχανής. Εάν οι όροι ορισμένων εντολών δεν εκφράζονται από ένα άτομο, η τεχνητή νοημοσύνη μπορεί να τις εκλάβει κυριολεκτικά (θυμηθείτε τις μεταφορικές δηλώσεις του Προέδρου μας για τον Παράδεισο ή «γιατί χρειαζόμαστε έναν κόσμο που δεν συμπαθεί τη Ρωσία» για να κατανοήσουμε τις πιθανές συνέπειες της ανάθεσης δικαίωμα να σκοτώσει σε AI).
Πέμπτο - Διακρίσεις, εκούσιες ή ακούσιες. Δεδομένου ότι τα μηχανήματα μπορούν να συλλέγουν, να παρακολουθούν και να αναλύουν όλα τα δεδομένα για ένα άτομο, είναι πιθανό αυτά τα μηχανήματα να χρησιμοποιήσουν τέτοια δεδομένα εναντίον ενός ατόμου.
Το θέμα είναι ανεξάντλητο. Ως εκ τούτου, θα συζητήσουμε μόνο τις στρατιωτικές πτυχές. Η επιστημονική φαντασία συχνά απεικονίζει τα ρομπότ και άλλα συστήματα τεχνητής νοημοσύνης με αρνητικό πρίσμα, όπως ο Εξολοθρευτής να επιτίθεται σε ανθρώπους και να αναλαμβάνει.

Εικόνες από την ταινία "Terminator 3: Rise of the Machines". Αν και με το πρόσχημα του Σβαρτσενέγκερ, ο εξολοθρευτής πιστεύει ότι σώζει την ανθρωπότητα συνολικά, επομένως εκατοντάδες θύματα που συνοδεύουν είναι μια αποδεκτή τιμή.
Οι ειδικοί λένε ότι ο κόσμος δεν θα πλημμυρίσει σύντομα από άθεες φονικές μηχανές.
Πριν από αυτό, θα ήταν καλό να λυθούν πιεστικά προβλήματα, όπως η διόρθωση ελαττωμάτων στην τεχνητή νοημοσύνη και η μηχανική μάθηση και να βρούμε τον καλύτερο τρόπο οργάνωσης της αλληλεπίδρασης ανθρώπου-μηχανής.
Ας συμφωνήσουμε για το τι είναι ένα ρομπότ - είναι ένα σύστημα τεχνητής νοημοσύνης που περικλείεται σε ένα ανθρωποειδές σώμα.
Διαφορετικά, μπορείτε να αντιμετωπίζετε αυτούς τους όρους ως συνώνυμους, με όλες τις συνέπειες για την τεχνητή νοημοσύνη.
Νόμοι της Ρομποτικής.
Ο Isaac Asimov ασχολήθηκε με αυτό το θέμα τη δεκαετία του 1950 στη σειρά διηγημάτων του I, Robot. Πρότεινε τρεις νόμους της ρομποτικής.
Αυτοί είναι οι τρεις νόμοι:
1. Ένα ρομπότ δεν μπορεί να βλάψει ένα άτομο ή με την αδράνειά του να επιτρέψει σε ένα άτομο να βλάψει.
2. Ένα ρομπότ πρέπει να υπακούει στις εντολές που του δίνονται από έναν άνθρωπο, εκτός εάν αυτές οι εντολές είναι αντίθετες με τον Πρώτο Νόμο.
3. Το ρομπότ πρέπει να φροντίζει για την ασφάλειά του, αφού αυτό δεν έρχεται σε αντίθεση με τον Πρώτο και τον Δεύτερο Νόμο.
(Από το Εγχειρίδιο Ρομποτικής, 56η έκδοση, 2058).
Ειδικότερα, σύμφωνα με τους παραπάνω νόμους, είναι σαφές ότι τα ρομπότ δεν είναι υποχρεωμένα να φροντίζουν το δημόσιο καλό και τον σεβασμό των θεμελιωδών ανθρωπίνων δικαιωμάτων και ελευθεριών.
Ως εκ τούτου, στα επόμενα έργα του, ο Ισαάκ Ασίμοφ πρόσθεσε επίσης τον Νόμο Μηδέν, ο οποίος διατυπώνεται ως εξής:
«Ένα ρομπότ δεν μπορεί να βλάψει την ανθρωπότητα ή, με την αδράνειά του, να επιτρέψει βλάβη στην ανθρωπότητα».
Μεγάλο μέρος της μεταγενέστερης δημιουργικής δουλειάς του Asimov δαπανήθηκε δοκιμάζοντας τα όρια αυτών των νόμων για να δούμε πού θα μπορούσαν να σπάσουν ή να προκαλέσουν παράδοξη ή απροσδόκητη συμπεριφορά.
Το σωρευτικό αποτέλεσμα των γραπτών του υποδηλώνει ότι κανένας μεμονωμένος νόμος δεν μπορεί να προβλέψει επαρκώς όλες τις πιθανές περιστάσεις.
Ρωσική έννοια.
Οι συντάκτες της ιδέας, η οποία εγκρίθηκε με τη μορφή του διατάγματος της κυβέρνησης της Ρωσικής Ομοσπονδίας Αρ. ανάπτυξη τεχνητής νοημοσύνης.
Δείτε πώς αναθεωρείται το έργο των Αμερικανών συγγραφέων επιστημονικής φαντασίας στο κείμενο του εγγράφου:
η προτεραιότητα της ανθρώπινης ευημερίας και ασφάλειας, η προστασία των θεμελιωδών δικαιωμάτων και ελευθεριών του (ο στόχος της διασφάλισης της ανθρώπινης ευημερίας και ασφάλειας θα πρέπει να υπερισχύει έναντι άλλων στόχων ανάπτυξης και εφαρμογής συστημάτων τεχνητής νοημοσύνης και ρομποτικής) ...
Δεν θα εξετάσουμε την πολιτική και κοινωνική σφαίρα των εφαρμογών τεχνητής νοημοσύνης, υπάρχουν αρκετοί εμπειρογνώμονες σε αυτό το τμήμα που εμπλέκονται, συμπαθητικοί και στοχαστικοί.
Σημειώνουμε μόνο ότι η ίδια η ιδέα του διαστημικού ρομπότ Fedor, που πυροβολεί στα μακεδονικά, έρχεται σε αντίθεση με την παραπάνω έννοια.
Περί ηθικής και ρομποτικής
Ηθική είναι ένας κλάδος της φιλοσοφίας που μελετά την ανθρώπινη συμπεριφορά, τις ηθικές κρίσεις, τις έννοιες του καλού και του κακού, του σωστού και του λάθους, της δικαιοσύνης και της αδικίας.
Η έννοια της ρομποτικής προκαλεί θεμελιώδεις ηθικούς προβληματισμούς που σχετίζονται με τα συγκεκριμένα ζητήματα και τα ηθικά διλήμματα που δημιουργούνται από την ανάπτυξη ρομποτικών εφαρμογών. Φυσικά, όχι όλοι.
Αλλά όσοι ενδιαφέρονται έχουν δικαιολογημένες αξιώσεις κατά των προγραμματιστών και σε κρατικό επίπεδο - κατά των γεωπολιτικών ανταγωνιστών που αγνοούν αυτές τις πτυχές.
ρομποτική – που ονομάζεται επίσης ηθική μηχανών – ασχολείται με τον κώδικα συμπεριφοράς που πρέπει να εφαρμόσουν οι μηχανικοί σχεδιασμού ρομπότ σε συστήματα τεχνητής νοημοσύνης και τεχνητής νοημοσύνης ρομπότ.
Με αυτό το είδος τεχνητής ηθικής, η ρομποτική πρέπει να διασφαλίσει ότι τα αυτόνομα συστήματα θα μπορούν να επιδεικνύουν ηθικά αποδεκτή συμπεριφορά σε καταστάσεις όπου τα ρομπότ ή οποιαδήποτε άλλα αυτόνομα συστήματα, όπως τα αυτόνομα οχήματα, για παράδειγμα, αλληλεπιδρούν με ανθρώπους.
Ας εστιάσουμε στα στρατιωτικά ρομπότ και συστήματα.
Ρομπότ σέρβις, συμπεριλαμβανομένων των αυτοκινήτων και του αέρα κηφήνες, έχουν σχεδιαστεί για να ζουν ειρηνικά και να αλληλεπιδρούν με ανθρώπους, ενώ τα θανατηφόρα ρομπότ είναι φτιαγμένα για να σταλούν να πολεμήσουν στο πεδίο της μάχης ως στρατιωτικά ρομπότ.
Και εδώ οι νόμοι είναι ακατάλληλοι!
Διότι η στρατιωτική τεχνητή νοημοσύνη, από τις λειτουργίες τους, θα πρέπει να σκοτώσει ή να συμβάλει σε αυτό. Και όχι ένα αφηρημένο πρόσωπο, αλλά ένας μαχητής που εκπροσωπεί την εχθρική πλευρά.
στρατιωτική AI.
Τα τελευταία χρόνια, η αυτονομία στα στρατιωτικά οπλικά συστήματα αναπτύσσεται ραγδαία. Ένας αυξανόμενος αριθμός χωρών, συμπεριλαμβανομένων των Ηνωμένων Πολιτειών, της Βρετανίας, της Κίνας και της Ρωσίας, αναπτύσσουν, παράγουν ή χρησιμοποιούν στρατιωτικά συστήματα διαφορετικών βαθμών αυτονομίας, συμπεριλαμβανομένων των θανατηφόρων.
Η χρήση της τεχνητής νοημοσύνης για στρατιωτικούς σκοπούς αυξάνεται παντού. Με την αυξανόμενη χρήση του AI, έχει ήδη γίνει σημαντικό μέρος του σύγχρονου πολέμου.
Με την πρόοδο στη μηχανική μάθηση και την υπολογιστική ισχύ, η ενσωμάτωση της τεχνητής νοημοσύνης σε στρατιωτικά συστήματα είναι πιθανό να επιταχύνει τη μετάβαση σε ευρύτερες και πιο σύνθετες μορφές αυτονομίας στο εγγύς μέλλον.
Αυτή η επιθυμία να αναπτυχθεί μια διαρκώς αυξανόμενη αυτονομία στις τεχνολογίες του στρατού όπλα δεν είναι σε καμία περίπτωση πρόσφατη τάση.
Η τεχνητή νοημοσύνη και τα στρατιωτικά προγράμματα έρευνας και ανάπτυξης αναπτύσσονται παραδοσιακά μαζί, και οι ερευνητές της κυβερνητικής και της τεχνητής νοημοσύνης τις δεκαετίες του 1950 και του 1960 έθεταν ήδη σχετικά ερωτήματα σχετικά με το πώς η αυξημένη αυτονομία των μηχανών θα μπορούσε να επηρεάσει τον ανθρώπινο έλεγχο στη στρατιωτική τεχνολογία. Και ο A. I. Berg, που αναφέρθηκε σχετικά στο προηγούμενο άρθρο, είναι ένα παράδειγμα αυτού.
Η τεχνητή νοημοσύνη και τα στρατιωτικά προγράμματα έρευνας και ανάπτυξης αναπτύσσονται παραδοσιακά μαζί, και οι ερευνητές της κυβερνητικής και της τεχνητής νοημοσύνης τις δεκαετίες του 1950 και του 1960 έθεταν ήδη σχετικά ερωτήματα σχετικά με το πώς η αυξημένη αυτονομία των μηχανών θα μπορούσε να επηρεάσει τον ανθρώπινο έλεγχο στη στρατιωτική τεχνολογία. Και ο A. I. Berg, που αναφέρθηκε σχετικά στο προηγούμενο άρθρο, είναι ένα παράδειγμα αυτού.
Λεξιλόγιο.
Πριν συζητήσουμε μια στρατηγική για την επιτάχυνση της ανάπτυξης της τεχνητής νοημοσύνης στον στρατιωτικό τομέα, είναι σημαντικό να ορίσουμε τι είναι η τεχνητή νοημοσύνη σε σχέση με στρατιωτικά θέματα.
Σύμφωνα με ειδικούς του χώρου, αυτός ο όρος δεν έχει ενιαία σημασία.
Δεδομένου ότι είναι ήδη πολύ αργά για να γίνουμε Ρώσοι νομοθέτες, προτείνω να συμμετάσχουμε στο ήδη υπάρχον επιστημονικό ρεύμα κατά τη συζήτηση περαιτέρω ζητημάτων.
Ο συγγραφέας διδάχθηκε πίσω στο KMB: αν και λάθος, αλλά το κύριο πράγμα είναι μονότονο.
Διαφορετικά, η τεχνητή νοημοσύνη μας δεν θα καταλάβει ξένη τεχνητή νοημοσύνη. Αυτό, πέρα από όλες τις άλλες παρεξηγήσεις, απλά δεν μας έφτανε.
Πολλοί θεωρούν ότι η τεχνητή νοημοσύνη είναι ένα αυτόνομο σύστημα λήψης αποφάσεων και εκτέλεσης εργασιών που αναπαράγει ή μιμείται την ανθρώπινη νοημοσύνη, όπως η αναγνώριση ήχων και αντικειμένων, η επίλυση προβλημάτων, η αναγνώριση γλώσσας και η χρήση λογικών διαδικασιών για την επίτευξη ενός προκαθορισμένου στόχου.
Τα περισσότερα σύγχρονα συστήματα τεχνητής νοημοσύνης ακολουθούν ένα «μαλακό» προφίλ, ικανό να καθοδηγεί τις μηχανές να λαμβάνουν απλές αποφάσεις και να εκτελούν προκαθορισμένες εργασίες με βάση την ερμηνεία των πληροφοριών που λαμβάνονται στο περιβάλλον.
Εξηγώντας αυτό, Αμερικανοί στρατιωτικοί εμπειρογνώμονες δίνουν ένα παράδειγμα:
Τα οπλικά συστήματα όπως τα καταδρομικά με τεχνολογία AEGIS σήμερα μπορούν να εμπλακούν σε αγνώστους στόχους που προσεγγίζουν αυτόματα την αμυντική περίμετρο του πλοίου, αλλά αυτή η τεχνολογία εξακολουθεί να βασίζεται σε «απλούς» αλγόριθμους που δεν μπορούν να λάβουν ηθικές αποφάσεις σχετικά με το αν θα επιτεθούν στον εχθρό ή όχι, βασίζονται σε ένα τεράστιο και απρόβλεπτες συνθήκες.
Ως εκ τούτου, ως υποβοηθητική τεχνολογία, ο πιο προσιτός βραχυπρόθεσμος τύπος χρήσης της τεχνητής νοημοσύνης σε στρατιωτικά θέματα είναι η επέκταση των δυνατοτήτων του C4ISR (επεξεργασία και ερμηνεία πληροφοριών, χρήση αλγορίθμων για μαζική αναγνώριση και ερμηνεία εικόνων): μείωση το γνωστικό άγχος που επιβάλλεται στους ανθρώπους.
Εν ολίγοις, αυτός ο βραχυπρόθεσμος ορίζοντας αφορά την αξιοποίηση της δύναμης της τεχνητής νοημοσύνης για τη βελτίωση της αποτελεσματικότητας και της ταχύτητας των γνωστικών εργασιών που εκτελούνται τακτικά από τους ανθρώπους, χωρίς να χρειάζεται να αντικατασταθούν οι ίδιοι οι άνθρωποι ως παράγοντες πολέμου.

Αυτή είναι ακριβώς η τάση που βλέπουμε στη σύνοψη στρατηγικής DoD AI 2018.
Στρατηγική AI των ΗΠΑ.
Η αμερικανική στρατηγική αναφέρει ρητά την ανάγκη να επιταχυνθεί η χρήση της τεχνητής νοημοσύνης για στρατιωτικούς σκοπούς πέρα από τα επίπεδα που εφαρμόζονται από τις αρχές της δεύτερης δεκαετίας του XNUMXου αιώνα.
Ως εκ τούτου, η αυξημένη ευαισθητοποίηση στο πεδίο της μάχης και οι δραστηριότητες που υποστηρίζουν στρατιωτικές επιχειρήσεις ξεχωρίζουν βραχυπρόθεσμα στις μελλοντικές εξελίξεις, με ελάχιστη αναφορά σε συγκεκριμένα πρωτότυπα αυτόνομα οχήματα ή όπλα.
Υπό αυτή την έννοια, το αμερικανικό έγγραφο λέει:
«Το AI που εφαρμόζεται σε αντιληπτικές εργασίες, όπως η ανάλυση εικόνας, επιτρέπει την εξαγωγή χρήσιμων πληροφοριών από ακατέργαστα δεδομένα και παρέχει στους ηγέτες των ομάδων καλύτερη επίγνωση της κατάστασης».
«Η τεχνητή νοημοσύνη μπορεί να βελτιώσει την ασφάλεια των εν χρήσει αεροσκαφών, πλοίων και οχημάτων σε καταστάσεις που μπορούν να αλλάξουν γρήγορα, προειδοποιώντας τους χειριστές της για πιθανούς κινδύνους».
Στον ίδιο τόνο, οι στρατηγοί του Υπουργείου Άμυνας των ΗΠΑ λένε:
«Θα χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να προβλέψουμε αστοχίες εξοπλισμού, να αυτοματοποιήσουμε τα διαγνωστικά και να σχεδιάσουμε τη συντήρηση με βάση τα δεδομένα υγείας του εξοπλισμού».
«Το AI θα χρησιμοποιηθεί για τη μείωση του χρόνου που δαπανάται σε επαναλαμβανόμενες, χειροκίνητες και συχνά εκτελούμενες εργασίες»…
Συντονισμός προσπαθειών, χρονολογία.
Σε 2018 έτους Το Κοινό Κέντρο AI του Πενταγώνου έχει επιφορτιστεί με την ανάπτυξη πολιτικών για την εφαρμογή των νέων αρχών της τεχνητής νοημοσύνης και την καθοδήγηση της εφαρμογής σε όλο το τμήμα. Οι στρατηγικές του συστάσεις κοινοποιήθηκαν στη διοίκηση εντός ενός έτους.
Μέσα Σεπτεμβρίου 2020 περισσότεροι από 100 αξιωματούχοι από 13 χώρες συναντήθηκαν διαδικτυακά, φαινομενικά για να συζητήσουν πώς οι στρατιώτες τους θα μπορούσαν να εφαρμόσουν ηθική τεχνητή νοημοσύνη. Η συνάντηση δεν είχε σχεδόν καμία κάλυψη, εκτός από μερικά ΜΜΕ, αλλά χαρακτηρίστηκε πρωτοφανής από αυτά. Η Breaking Defense περιέγραψε το γεγονός ως «μια έκτακτη συνάντηση που υπογραμμίζει πόσο σημαντική γίνεται η τεχνητή νοημοσύνη για τις ΗΠΑ και τους συμμάχους τους».
Συμμετείχαν μόνο μέλη του ΝΑΤΟ με πρόσκληση: Μεγάλη Βρετανία, Καναδάς, Δανία, Εσθονία, Γαλλία και Νορβηγία. Σύμμαχοι εκτός ΝΑΤΟ - Αυστραλία, Ιαπωνία και Νότια Κορέα. και de facto συμμάχους των ΗΠΑ Ισραήλ, Φινλανδία και Σουηδία.
Αν και το πρακτικό της συνάντησης δεν δόθηκε στη δημοσιότητα, η δηλωμένη εστίασή της ήταν η «ηθική». Ο τότε επικεφαλής στρατηγικής και πολιτικής στην JAIC (τώρα ανώτερος διευθυντής προγράμματος στην Amazon) Mark Bill είπε στο Breaking Defense:
«Είμαστε πραγματικά επικεντρωμένοι αυτή τη στιγμή στην ένωση γύρω από [κοινές] βασικές αξίες όπως η ψηφιακή ελευθερία και τα ανθρώπινα δικαιώματα, το διεθνές ανθρωπιστικό δίκαιο».
Τον Φεβρουάριο του 2020 Το Υπουργείο Άμυνας των ΗΠΑ δημοσίευσε μια λίστα με πέντε ηθικές αρχές τεχνητής νοημοσύνης που βασίζονται σε συμβουλές από το Defense Innovation Council και άλλους ειδικούς εντός και εκτός της κυβέρνησης. Σύμφωνα με τη λίστα, το στρατιωτικό προσωπικό πρέπει να λογοδοτεί και να ασκεί κατάλληλο επίπεδο κρίσης και φροντίδας, ενώ παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
Τον Μάιο του 2021 Υπέγραψε ο αναπληρωτής υπουργός Άμυναςа ένα υπόμνημα που περιγράφει τη δέσμευση του Υπουργείου Άμυνας των ΗΠΑ για την υπεύθυνη χρήση της τεχνητής νοημοσύνης. Αυτό το σημείωμα περιγράφει τις αρχές για την προώθηση και την πρακτική εφαρμογή των αρχών της ηθικής της τεχνητής νοημοσύνης του Υπουργείου Άμυνας των ΗΠΑ.
Με στόχο τη δημιουργία ενός ισχυρού οικοσυστήματος εργαλείων τεχνητής νοημοσύνης και τεχνογνωσίας τομέα, οι αρχές που περιγράφονται στο μνημόνιο θα επιτρέψουν στο τμήμα να οικοδομήσει στρατιωτική ικανότητα και εμπιστοσύνη μεταξύ των εργαζομένων, των μαχητών και του αμερικανικού κοινού μέσω της υπεύθυνης χρήσης της τεχνητής νοημοσύνης.
Υπόμνημα.
Το υπόμνημα περιγράφει τα σχέδια του Υπουργείου Άμυνας των ΗΠΑ για την ανάπτυξη υπεύθυνης τεχνητής νοημοσύνης.
Αυτές οι αρχές περιλαμβάνουν:
Ευθύνη: Οι υπάλληλοι του Υπουργείου Άμυνας των ΗΠΑ θα επιδεικνύουν τη δέουσα επιμέλεια και φροντίδα ενώ θα παραμείνουν υπεύθυνοι για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων τεχνητής νοημοσύνης.
Δικαιοσύνη: το τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει τις ακούσιες προκαταλήψεις στις δυνατότητες AI.
Ιχνηλασιμότητα: Οι δυνατότητες τεχνητής νοημοσύνης θα σχεδιαστούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να κατανοεί σωστά τις τεχνολογίες, τις διαδικασίες ανάπτυξης και τις επιχειρησιακές πρακτικές που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και επαληθεύσιμων μεθοδολογιών, πηγών δεδομένων, διαδικασιών σχεδιασμού και τεκμηρίωσης.
Αξιοπιστία: Οι δυνατότητες τεχνητής νοημοσύνης θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα ελέγχονται και θα επικυρώνονται εντός αυτών των καθορισμένων χρήσεων καθ' όλη τη διάρκεια του κύκλου ζωής τους.
Χαλιναγώγηση: το τμήμα θα αναπτύξει και θα αναπτύξει ικανότητες τεχνητής νοημοσύνης για την εκτέλεση των προβλεπόμενων λειτουργιών, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες και να τις κλείνει ή να κλείνει αναπτυγμένα συστήματα που παρουσιάζουν ακούσια συμπεριφορά.
Αυτοματοποίηση ή αυτονομία.
Όταν συζητείται η χρήση της τεχνητής νοημοσύνης στον στρατό και οι επιπτώσεις της, θα πρέπει να διευκρινιστούν οι έννοιες του αυτοματισμού και της αυτονομίας.
Αυτές οι δύο έννοιες είναι διαφορετικές μεταξύ τους.
Στα συστήματα αυτοματισμού, ένα άτομο αναθέτει μια εργασία σε μια μηχανή ή ένα ρομπότ. Σε αυτά τα συστήματα, η εργασία και η μέθοδος για το μηχάνημα έχουν ήδη καθοριστεί εκ των προτέρων. Τα δεδομένα μεταβιβάζονται σε αυτό και εκτελεί την εργασία. Το επίπεδο αυτονομίας μπορεί να είναι διαφορετικό.
Εάν η εργασία είναι προκαθορισμένη λεπτομερώς, τότε το μηχάνημα έχει χαμηλή αυτονομία και εάν η εργασία είναι καθορισμένη, αλλά οι μέθοδοι και οι λεπτομέρειες δεν είναι προκαθορισμένες, τότε το μηχάνημα έχει υψηλή αυτονομία. Ωστόσο, είναι σημαντικό να κατανοήσουμε ότι το έργο είναι γνωστό και επιλέγεται από το άτομο.
Στα αυτόνομα συστήματα, το μηχάνημα είναι ικανό και μπορεί να λειτουργήσει χωρίς περιορισμούς και κανόνες.
Η κύρια διαφορά μεταξύ των δύο όρων είναι ότι η ανθρώπινη λήψη αποφάσεων γίνεται από αυτόνομα συστήματα, οι μηχανές γίνονται ανεξάρτητα όντα που αποφασίζουν και ενεργούν. Ακριβώς όντα, αφού οι γνωστικές τους ικανότητες γίνονται δυσδιάκριτες από τις ανθρώπινες.
Για παράδειγμα, ένα πλήρως αυτόνομο όπλο ορίζεται ως ένα όπλο που επιλέγει στόχους και τους εμπλέκει χωρίς ανθρώπινη άδεια. Στα αυτόνομα όπλα και συστήματα, η ανθρώπινη δύναμη λήψης αποφάσεων και ελέγχου τερματίζεται.
Θανατηφόρα αυτόνομα οπλικά συστήματα.
Δεδομένου ότι τα κράτη μέλη των Ηνωμένων Εθνών δεν έχουν σημειώσει μεγάλη πρόοδο τα τελευταία 5 χρόνια στις συζητήσεις για τα φονικά αυτόνομα όπλα (DAW), η φύση του πολέμου αλλάζει μπροστά στα μάτια μας.
Αυτή η αλλαγή συμβαίνει χωρίς την κατάλληλη λογοδοσία ή δημόσιο έλεγχο, καθώς μερικές χώρες συνεχίζουν να επενδύουν σε μεγάλο βαθμό στην αύξηση της αυτονομίας των οπλικών συστημάτων τους, σε συνδυασμό με την προηγμένη τεχνητή νοημοσύνη.
Τα παραπάνω παραδείγματα άρθρων για το Καλάσνικοφ και το "Armata" - περί τίνος πρόκειται; Ζητούν άδεια από ένα άτομο να σκοτώσουν;
Πιθανά προβλήματα στην εμπόλεμη ζώνη.
Ο αυτοματισμός εμπίπτει επίσης σε δύο άλλες κατηγορίες.
Είναι αυτονομία σε ηρεμία και αυτονομία σε κίνηση.. Σε κατάσταση ηρεμίας, παρέχεται αυτοματισμός στο μηχάνημα σε λογισμικό, ενώ αυτονομία στη δράση σημαίνει αυτονομία στη φυσική αλληλεπίδραση.
Εάν χρησιμοποιούνται οχήματα σε εμπόλεμη ζώνη, ειδικά θανατηφόρα αυτόνομα οπλικά συστήματα, αυτό θα μπορούσε να δημιουργήσει τεράστιο πρόβλημα.
Γιατί τα φονικά όπλα προκαλούν θάνατο χωρίς κανέναν ανθρώπινο έλεγχο.
Γιατί τα φονικά όπλα προκαλούν θάνατο χωρίς κανέναν ανθρώπινο έλεγχο.
Κυνηγούν στόχους αυτόνομα και συμμετέχουν σε μάχη χωρίς άμεσες εντολές από ανθρώπους.
Αυτή είναι μια πολύ αμφιλεγόμενη απόφαση!
Οποιαδήποτε λανθασμένη ενέργεια μπορεί να οδηγήσει στο θάνατο αμάχων.
Ένα άλλο πιθανό πρόβλημα είναι ότι ακόμη και αν δεν χρησιμοποιούνται αυτόνομα όπλα που ταξινομούνται ως αυτόνομα στη δράση, η διαδικασία λήψης αποφάσεων εξαρτάται κυρίως από δεδομένα που παρέχονται από την τεχνητή νοημοσύνη.
Για το λόγο αυτό, και εν μέσω μιας ταχύτερης φάσης εχθροπραξιών, οι άνθρωποι μπορούν να πάρουν λανθασμένες και παραπλανητικές αποφάσεις.
Εξηγώ σε ένα πρόσφατο τραγικό παράδειγμα.
Ο υπουργός Άμυνας των ΗΠΑ Λόιντ Όστιν ζήτησε συγγνώμη για την άστοχη επίθεση με μη επανδρωμένο αεροσκάφος των ΗΠΑ στην Καμπούλ που σκότωσε δέκα Αφγανούς, μεταξύ των οποίων επτά παιδιά.
Ο επικεφαλής της Κεντρικής Διοίκησης των ΗΠΑ, στρατηγός Κένεθ ΜακΚένζι, δήλωσε ότι ο αμερικανικός στρατός ολοκλήρωσε την έρευνά του για την επίθεση με μη επανδρωμένο αεροσκάφος της 29ης Αυγούστου στην Καμπούλ και παραδέχτηκε ότι ήταν λάθος.
Το Πεντάγωνο είναι πεπεισμένο ότι ως αποτέλεσμα αυτής της επιχείρησης, δεν καταστράφηκε ούτε ένα άτομο που σχετίζεται με την ομάδα Ισλαμικό Κράτος στο Χορασάν (παρακλάδι της τρομοκρατικής οργάνωσης Ισλαμικό Κράτος που απαγορεύεται στη Ρωσία).
Ο Kenneth McKenzie παραδέχτηκε ότι το αυτοκίνητο που χτυπήθηκε δεν είχε καμία σχέση με τους τρομοκράτες και ότι οι νεκροί δεν αποτελούσαν καμία απειλή για τον αμερικανικό στρατό. Ο αρχηγός της Κεντρικής Διοίκησης κατέληξε στο συμπέρασμα ότι το χτύπημα ήταν ένα τραγικό λάθος, αλλά δεν πρέπει να κρίνει κανείς την ικανότητα των Ηνωμένων Πολιτειών να χτυπήσουν τους αντάρτες με βάση αυτό το λάθος.
Το κόστος ζωής.
Εάν ένα αυτόνομο όπλο σκοτώσει έναν άμαχο, ποιος θα είναι υπεύθυνος;
Είναι δυνατόν να κατηγορήσουμε έναν προγραμματιστή, έναν στρατιώτη ή μια κυβέρνηση που αγοράζει ένα σύστημα τεχνητής νοημοσύνης;
Από τη σκοπιά της ανθρώπινης αξιοπρέπειας, είναι παράνομο και αφύσικο να εκχωρείται σε ένα αυτόνομο όπλο ή άλλη μηχανή η ικανότητα να αφαιρεί ανθρώπινη ζωή.
Η βάση αυτού του επιχειρήματος είναι ότι η δολοφονία ενός ατόμου είναι ένα σοβαρό και ηθικό ζήτημα και μόνο οι άνθρωποι μπορούν να πάρουν μια τόσο σημαντική απόφαση.
Ο φόνος γενικά είναι εγγενώς ηθικά εσφαλμένος και δεν έχει σημασία για το θύμα ποιος αποφάσισε ή ποιος έκανε την πράξη. Αλλά για την κοινωνία, αυτό το ζήτημα δεν είναι ασήμαντο. Εγείρει το ζήτημα της αξίας της ανθρώπινης ζωής.
Το κόστος μιας ανθρώπινης ζωής - δεν πρόκειται για μια αφηρημένη έννοια, αλλά για ένα συγκεκριμένο κριτήριο, χωρίς το οποίο δεν μπορεί να λειτουργήσει ουσιαστικά ούτε ένα οπλικό σύστημα με τεχνητή νοημοσύνη.
Για παράδειγμα, για την επίλυση μιας συγκεκριμένης αποστολής μάχης, το σύστημα αξιολογεί τις απώλειες: θα είναι απαραίτητο να θυσιαστεί ένας Αμερικανός στρατιώτης ή τρεις σύμμαχοι;
Η αξία του άμαχου πληθυσμού γενικά αξιολογείται και λαμβάνεται με κάποιο τρόπο υπόψη;
Στο πλαίσιο των στατιστικών, υπάρχει η έννοια του «κόστους ζωής», η οποία χρησιμοποιείται για να αναπαραστήσει το κόστος της πρόληψης του θανάτου σε διάφορες περιστάσεις. Για παράδειγμα, το 2016, το Υπουργείο Μεταφορών των ΗΠΑ υπολόγισε μια «στατιστική αξία ζωής» σε 9,6 εκατομμύρια δολάρια ΗΠΑ.
Η Υπηρεσία Προστασίας του Περιβάλλοντος των ΗΠΑ χρησιμοποιεί επίσης τη μέτρηση "αξία μιας στατιστικής ζωής", αν και ξεφεύγει από τον τρόπο της για να εξηγήσει (ή να κρύψει) γιατί δεν είναι το ίδιο με την εκτίμηση μιας ατομικής ζωής.
Πόσο κοστίζει το καθένα;
Οι Αμερικανοί δεν το διαφημίζουν ιδιαίτερα αυτό, αλλά το μέσο κόστος ενός Αμερικανού στρατιώτη σε δοκιμαστικά προγράμματα είναι περίπου μια συγκρίσιμη τιμή, ας πούμε, 10 εκατομμύρια δολάρια.
Προφανώς, αυτό δεν θα αποκαλυφθεί. Αλλά οι αλγόριθμοι AI δεν θα περιλαμβάνουν τη μέση αξία διαφόρων κατηγοριών στρατιωτικού προσωπικού, αλλά το κόστος, λαμβάνοντας υπόψη τις τάξεις και το φύλο.
Αυτό οδηγεί σε πολύπλοκους, από την άποψη της ηθικής, αλλά εύκολους για αλγόριθμους, εργασίες και λύσεις τεχνητής νοημοσύνης.
Για παράδειγμα, αξίζει να ρισκάρουμε δέκα πεζοναύτες για να σώσουν ή να εκκενώσουν το πτώμα του συντρόφου τους;
Περιορισμοί AI.
Αν υποθέσουμε ότι τα παραπάνω ισχύουν και ότι η ανάπτυξη αυτόνομων όπλων είναι πράγματι αναπόφευκτη, πρέπει να αντιμετωπίσουμε όλο το φάσμα των προβλημάτων που παρουσιάζουν.
Για τους σκοπούς αυτούς, θα πρέπει κανείς να έχει κατά νου την αρχή της αναλογικότητας στο ανθρωπιστικό δίκαιο, που σημαίνει κατανόηση του τρόπου με τον οποίο τα αυτόνομα όπλα μπορούν να επιτύχουν αναλογικά αποτελέσματα στο πεδίο της μάχης.
Ωστόσο, ενώ είναι αλήθεια ότι τα αυτόνομα όπλα θέτουν ορισμένα σοβαρά προβλήματα, για να κατανοήσουμε το σωστό εύρος αυτών των προβλημάτων, είναι σημαντικό να είμαστε ρεαλιστές σχετικά με το τι μπορούν και τι δεν μπορούν να κάνουν τα αυτόνομα όπλα.
ανθρωπιστικό δίκαιο.
Νομίζω ότι πολλοί στρατιωτικοί, πρώην και νυν, δεν θα καταλάβουν καθόλου το νόημα αυτής της φράσης. Αυτό είναι επίσης ένα πρόβλημα τόσο για τους διαχειριστές εργασιών όσο και για τους προγραμματιστές όπλων.
Για παράδειγμα, το διεθνές ανθρωπιστικό δίκαιο απαιτεί διάκριση μεταξύ μαχητών και αμάχων και απαιτεί τα άγνωστα πρόσωπα να αντιμετωπίζονται ως πολίτες.
Για να συμμορφωθεί με τη νομοθεσία, ένα σύστημα με δυνατότητα AI που δεν γνωρίζει την κατάσταση ενός ατόμου θα πρέπει να συμβουλευτεί έναν ανθρώπινο χειριστή προτού ενεργήσει με τρόπο που θα μπορούσε να προκαλέσει δυσανάλογη βλάβη σε αυτό το άτομο. Αυτό και μόνο απαιτεί από τους προγραμματιστές να αναλύουν τις ανταλλαγές ανθρώπου-μηχανής στο αρχικό στάδιο του σχεδιασμού ενός συστήματος, να λαμβάνουν υπόψη τον χρόνο καθυστέρησης λήψης απόφασης και να περιλαμβάνουν επαρκή χρόνο στον τεχνικό σχεδιασμό, ώστε οι χειριστές να μπορούν να αναλύουν τις αποφάσεις που λαμβάνονται από το μηχάνημα.
Τελικά, η συνέργεια ηθικών και τεχνικών απαιτήσεων καθοδηγεί τα σχέδια των προγραμματιστών, ενισχύοντας την αρχή ότι ο σχεδιασμός και η ανάπτυξη πρέπει να βασίζονται στην κατανόηση των ηθικών ζητημάτων που μπορεί να προκύψουν στο πεδίο.
Ηθική.
Προστασία της έρευνας και χρήση τεχνητής νοημοσύνης εντός ορισμένων ηθικών παραμέτρων είναι ένα στοιχείο που τονίζεται στη στρατηγική του Υπουργείου Άμυνας των ΗΠΑ.
Το έγγραφο όχι μόνο μεταφέρει την ιδέα της ανησυχίας για τις ανθρωπιστικές αξίες και την ηθική του πολέμου, αλλά επικρίνει επίσης τις ρωσικές και κινεζικές κατευθυντήριες γραμμές σε αυτόν τον τομέα για την υποστήριξη τεχνολογικών επενδύσεων που «εγείρουν ερωτήματα σχετικά με τα διεθνή πρότυπα και τα ανθρώπινα δικαιώματα».
Απαιτήσεις για χειριστές.
Οι επιχειρήσεις απόκτησης στόχων, επιτήρησης και αναγνώρισης (ISR) για την υποστήριξη άλλων στρατιωτικών δραστηριοτήτων είναι κρίσιμες. Η ενσωμάτωση AI είναι πολύ χρήσιμη και προτιμάται στις λειτουργίες ISR.
Ειδικότερα, με τη βοήθεια UAV, μπορούν να εντοπιστούν στόχοι ή να εντοπιστούν πιθανές απειλές σε πολύ πρώιμο στάδιο.
Η αναγνώριση στόχου είναι επίσης μέρος αυτής της πτυχής. Οι τεχνολογίες τεχνητής νοημοσύνης χρησιμοποιούνται για τη βελτίωση της ακρίβειας της αναγνώρισης στόχων. Αυτές οι τεχνικές επιτρέπουν στα στρατεύματα να αποκτήσουν σε βάθος ανάλυση της συμπεριφοράς του εχθρού, μετεωρολογικές προβλέψεις, ευπάθειες του εχθρού και τα τρωτά σημεία του στρατού τους, καθώς και στρατηγικές μετριασμού.
Κόστος λάθους.
Τα συστήματα που βασίζονται σε θανατηφόρα τεχνητή νοημοσύνη είναι θεμελιωδώς ευάλωτα σε μεροληψία, πειρατεία και δυσλειτουργίες υπολογιστών. Έως και το 85% όλων των έργων τεχνητής νοημοσύνης αναμένεται να έχουν σφάλματα λόγω μεροληψίας αλγορίθμου, μεροληψίας προγραμματιστή ή μεροληψίας στα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή τους.
Ποιος εκπαιδεύει την τεχνητή νοημοσύνη;
Ποιος συγκεκριμένα;
Πόσο ικανοί είναι αυτοί οι άνθρωποι όχι μόνο στον προγραμματισμό;
Έχουν κοινωνική εμπειρία;
Έχουν διαβάσει Ντοστογιέφσκι, Τολστόι, Τσέχοφ, επιστημονική φαντασία, συμπεριλαμβανομένων 40 έργων των προαναφερθέντων Isaac Asimov, Harry Harrison και άλλων που, σκεπτόμενοι τα ρομπότ (AI), βρήκαν δεκάδες τρόπους για να παρακάμψουν τους νόμους της ρομποτικής;
Έχει ο προγραμματιστής οικογένεια, παιδιά, εγγόνια;
Θα είναι διαθέσιμος ο ανοιχτός κώδικας τεχνητής νοημοσύνης, όπου θα υπάρχει το τίμημα κάθε ζωής και αλγόριθμοι για να νικήσεις (σκοτώσεις) λιγότερο πολύτιμες στο όνομα της σωτηρίας πιο πολύτιμων;
Ποιος θα αναλάβει την ευθύνη;
Ποιος συγκεκριμένα;
Πόσο ικανοί είναι αυτοί οι άνθρωποι όχι μόνο στον προγραμματισμό;
Έχουν κοινωνική εμπειρία;
Έχουν διαβάσει Ντοστογιέφσκι, Τολστόι, Τσέχοφ, επιστημονική φαντασία, συμπεριλαμβανομένων 40 έργων των προαναφερθέντων Isaac Asimov, Harry Harrison και άλλων που, σκεπτόμενοι τα ρομπότ (AI), βρήκαν δεκάδες τρόπους για να παρακάμψουν τους νόμους της ρομποτικής;
Έχει ο προγραμματιστής οικογένεια, παιδιά, εγγόνια;
Θα είναι διαθέσιμος ο ανοιχτός κώδικας τεχνητής νοημοσύνης, όπου θα υπάρχει το τίμημα κάθε ζωής και αλγόριθμοι για να νικήσεις (σκοτώσεις) λιγότερο πολύτιμες στο όνομα της σωτηρίας πιο πολύτιμων;
Ποιος θα αναλάβει την ευθύνη;
Οι ερωτήσεις είναι ρητορικές.
Επομένως, η στρατιωτική τεχνητή νοημοσύνη θα είναι πάντα κλεισμένη σε ένα μυστικό μαύρο κουτί και κανείς δεν θα προβλέψει ποιο θα είναι το επόμενο θύμα.
Στρατιωτικό πλαίσιο AI.
Δεδομένου του ευρέος φάσματος πιθανών εφαρμογών και προκλήσεων που σχετίζονται με την τεχνητή νοημοσύνη, το Υπουργείο Άμυνας των ΗΠΑ και οι ανάδοχοί του πρέπει να αντιμετωπίσουν νομικά και ηθικά ζητήματα νωρίς στον κύκλο ζωής της ανάπτυξης, από την ιδέα της τεχνητής νοημοσύνης έως την εφαρμογή και την ανάπτυξη.
Οι ηθικοί προβληματισμοί θα πρέπει να διαμορφώσουν τις μελλοντικές απαιτήσεις του συστήματος και οι προγραμματιστές θα πρέπει να γνωρίζουν τόσο τεχνικά όσο και ηθικά ζητήματα.
Η ενσωμάτωση δεοντολογικού ελέγχου μπορεί να αλλάξει τις διαδικασίες μοντελοποίησης και να δημιουργήσει νέο κόστος για τους σχεδιαστές, αλλά οι υπεύθυνοι λήψης αποφάσεων και οι προγραμματιστές θα πρέπει να γνωρίζουν ότι η "πρώιμη και συχνή" προσέγγιση έχει απτά οφέλη, συμπεριλαμβανομένης της βοήθειας σε μελλοντικές αναθεωρήσεις συμμόρφωσης.
Η DARPA στην επιχείρηση.
Δεδομένου ότι το ζήτημα της ασφάλειας της τεχνητής νοημοσύνης είναι εννοιολογικό, υπό την αιγίδα του Defense Advanced Research Projects Agency (DARPA), μια διεπιστημονική ερευνητική ομάδα επιστημόνων, φιλοσόφων, δικηγόρων, στρατιωτικών εμπειρογνωμόνων και αναλυτών εξετάζει το νόμο και την ηθική για να αναλύσει τεχνολογικές εξαρτήσεις και συστήματα. εξαρτήματα από την έναρξή του.
Αυτή η αναλυτική διαδικασία μπορεί να εφαρμοστεί σε άλλα συστήματα και προσφέρει έναν τρόπο ανάπτυξης ηθικής στρατιωτικής τεχνητής νοημοσύνης.
Διαμόρφωση απαιτήσεων συστήματος
Μια ολιστική ανάλυση των νομικών, ηθικών και ηθικών επιπτώσεων των μελλοντικών αυτόνομων συστημάτων με δυνατότητα τεχνητής νοημοσύνης σε πρώιμο στάδιο θα απαιτεί συχνά να γεφυρωθεί πρώτα το εννοιολογικό χάσμα.
Οι αξιολογήσεις πρέπει να κάνουν διάκριση μεταξύ του πιθανού και του εύλογου, εξετάζοντας τόσο την ιδανική απόδοση ενός συστήματος στην εργασία όσο και την πραγματική του ικανότητα να εκτελεί μια εργασία.
Η ανάλυση των ηθικών πλεονεκτημάτων και αδυναμιών απαιτεί από τον αξιολογητή να κατανοήσει τον σκοπό του συστήματος, τα τεχνικά του στοιχεία και τους περιορισμούς τους, τα σχετικά νομικά και ηθικά πλαίσια και την αποτελεσματικότητα του συστήματος στην εκτέλεση μιας εργασίας έναντι του ανθρώπινου χειριστή.
Και σε αυτό, η ζωή και η ανθρωπιστική εμπειρία είναι ίσως πιο σημαντική από τις τεχνικές γνώσεις και δεξιότητες και τις γνώσεις λογισμικού.
Στην πραγματικότητα, η αξιολόγηση της ηθικής συμμόρφωσης από το σχεδιασμό έως την ανάπτυξη μοιάζει με ένα σπειροειδές μοντέλο που απαιτεί επαναληπτική δοκιμή, δημιουργία πρωτοτύπων και επικύρωση έναντι τεχνολογικών και ηθικών περιορισμών.
Νομικά και ηθικά ζητήματα απαιτούν την επέκταση των απαιτήσεων από καθαρά τεχνικές (π.χ. όραση υπολογιστή, αναγνώριση εικόνας, λογική απόφασης και αυτονομία οχήματος) ώστε να συμπεριλάβουν το διεθνές ανθρωπιστικό δίκαιο, τους νόμους του πολέμου και τις σχετικές διατάξεις περί αδικοπραξίας.
Απαιτήσεις ηθικής τεκμηρίωσης.
Οι απαιτήσεις τεκμηρίωσης δεοντολογίας—ουσιαστικά ζητώντας μια έντυπη διαδρομή αφιερωμένη αποκλειστικά σε νομικούς, ηθικούς και ηθικούς λόγους— παρέχουν μια απλή μέθοδο αποτύπωσης της επεξηγηματικότητας ενός συστήματος.
Οι προγραμματιστές θα πρέπει να τεκμηριώνουν τα συστήματά τους και να περιλαμβάνουν κρίσιμες εξαρτήσεις, πιθανά σημεία αποτυχίας και ερευνητικά κενά για να διασφαλίσουν ότι το μη τεχνικό κοινό κατανοεί τους νομικούς και ηθικούς κινδύνους και τα οφέλη των νέων συστημάτων με δυνατότητα τεχνητής νοημοσύνης.
Ως πρωτότυπη και ευρέως χρησιμοποιούμενη αρχή, οι σχεδιαστές θα πρέπει να εξετάσουν τις έννοιες των λειτουργιών - πώς το σύστημά τους θα χρησιμοποιηθεί στο πεδίο - νωρίτερα στη διαδικασία σχεδιασμού από ό,τι συμβαίνει σήμερα, προκειμένου να τεκμηριώσουν με ακρίβεια τα συστήματά τους.
Οι προγραμματιστές πρέπει ήδη να προετοιμάσουν την τεκμηρίωση μετριασμού για τον εντοπισμό και την επίλυση τεχνικών ζητημάτων για νέα συστήματα. Αυτή η τεκμηρίωση ηθικού κινδύνου διασφαλίζει ότι οι προγραμματιστές αντιμετωπίζουν με διαφάνεια τα ηθικά ζητήματα νωρίς στη διαδικασία σχεδιασμού.
Μηχανική εκμάθηση.
Η πρώιμη και συχνά δεοντολογική αναθεώρηση μπορεί επίσης να αποκαλύψει κενά στη σχετική έρευνα και να υποδείξει την πιθανότητα μεροληψίας ενώ τα σχέδια βρίσκονται ακόμη σε εξέλιξη.
Εντοπίζοντας κενά στην έρευνα όπου θα μπορούσε να βοηθήσει τους προγραμματιστές να κάνουν επιλογές ηθικού σχεδιασμού, οι υπεύθυνοι λήψης αποφάσεων μπορούν να διαθέσουν πόρους στην έρευνα που ανταποκρίνεται στις πιεστικές ανάγκες.
Η περιγραφή των λειτουργικών περιβαλλόντων στα οποία θα λειτουργεί το σύστημα με δυνατότητα AI εξαρτάται συχνά από τις ανέκδοτες αναμνήσεις των προγραμματιστών (καθώς και από τις ιστορίες και τα ανέκδοτα των εμπλεκομένων) των εχθροπραξιών. Αυτό μπορεί να χρησιμεύσει ως χρήσιμο σημείο εκκίνησης για την εκπαίδευση αυτών των συστημάτων, αλλά δεν αποτελεί εγγύηση σωστής εκπαίδευσης.
Η περιγραφή των λειτουργικών περιβαλλόντων στα οποία θα λειτουργεί το σύστημα με δυνατότητα AI εξαρτάται συχνά από τις ανέκδοτες αναμνήσεις των προγραμματιστών (καθώς και από τις ιστορίες και τα ανέκδοτα των εμπλεκομένων) των εχθροπραξιών. Αυτό μπορεί να χρησιμεύσει ως χρήσιμο σημείο εκκίνησης για την εκπαίδευση αυτών των συστημάτων, αλλά δεν αποτελεί εγγύηση σωστής εκπαίδευσης.
Πολλές μέθοδοι μηχανικής εκμάθησης εξαρτώνται σε μεγάλο βαθμό από την πρόσβαση σε μεγάλα και προσεκτικά επιλεγμένα σύνολα δεδομένων. Στις περισσότερες περιπτώσεις, τέτοια σύνολα δεδομένων που λαμβάνουν υπόψη τις λεπτές αποχρώσεις και τις αποχρώσεις συγκεκριμένων περιβαλλόντων και συνθηκών λειτουργίας απλώς δεν υπάρχουν.
Ακόμη και όπου υπάρχουν, συχνά απαιτούν σημαντική προσπάθεια για να μετατραπούν σε μορφές κατάλληλες για διαδικασίες μηχανικής μάθησης.
Επιπλέον, η κοινότητα της τεχνητής νοημοσύνης έχει μάθει με τον σκληρό τρόπο ότι ακόμη και καλά σχεδιασμένα σύνολα δεδομένων μπορεί να περιέχουν απρόβλεπτες προκαταλήψεις που μπορούν να εισχωρήσουν κρυφά στη μηχανική μάθηση, προκαλώντας σοβαρά ηθικά ζητήματα.
αλγοριθμική προκατάληψη.
Η αλγοριθμική μεροληψία περιγράφει συστηματικά και επαναλαμβανόμενα σφάλματα σε ένα σύστημα υπολογιστή που οδηγούν σε άδικα αποτελέσματα, όπως η ευνοϊκή προτίμηση μιας αυθαίρετης ομάδας χρηστών έναντι άλλων.
Η μεροληψία μπορεί να προκύψει από διάφορους παράγοντες, όπως, ενδεικτικά, ο σχεδιασμός αλγορίθμου, ακούσιες ή απρόβλεπτες χρήσεις ή αποφάσεις σχετικά με τον τρόπο κωδικοποίησης, συλλογής, επιλογής ή χρήσης των δεδομένων για έναν αλγόριθμο εκπαίδευσης.
Stop Killer Robots
Υπάρχει η εκστρατεία Stop the Killer Robots, η οποία είναι ένας συνασπισμός μη κυβερνητικών οργανώσεων που επιδιώκει να απαγορεύσει προληπτικά τα θανατηφόρα αυτόνομα όπλα (LAWS).
Ο Γενικός Γραμματέας των Ηνωμένων Εθνών (ΟΗΕ), στην έκθεσή του για το 2020 για την προστασία των αμάχων σε ένοπλες συγκρούσεις, κάλεσε τα κράτη να λάβουν άμεση δράση για να αντιμετωπίσουν τις ανησυχίες σχετικά με αυτόνομα θανατηφόρα οπλικά συστήματα. Αυτή είναι η πρώτη έκθεση του ΟΗΕ για την προστασία των αμάχων από το 2013 που υπογραμμίζει τη γενική ανησυχία για τα ρομπότ δολοφόνων.
Σε μια έκθεση του 2020, ο Γενικός Γραμματέας Αντόνιο Γκουτέρες πιστεύει ότι «όλα τα μέρη φαίνεται να συμφωνούν ότι, τουλάχιστον, ο ανθρώπινος έλεγχος ή η κρίση για τη χρήση βίας πρέπει να διατηρηθεί». Σημειώνει επίσης ότι «ένας αυξανόμενος αριθμός κρατών μελών ζητούν την απαγόρευση με νόμο». Από τον Νοέμβριο του 2018, ο Γενικός Γραμματέας του ΟΗΕ έχει επανειλημμένα εκφράσει την επιθυμία του να υπογράψει μια νέα διεθνή συνθήκη για την απαγόρευση των ρομπότ δολοφόνων.
Η εκστρατεία Stop Killer Robots χαιρετίζει την έκκληση του ΟΗΕ προς τα κράτη να συμφωνήσουν σε «όρια και υποχρεώσεις που θα πρέπει να ισχύουν για την αυτονομία στα όπλα». Τα κράτη θα πρέπει να αρχίσουν να διαπραγματεύονται μια νέα διεθνή συνθήκη για την απαγόρευση των πλήρως αυτόνομων όπλων διατηρώντας παράλληλα τον πραγματικό ανθρώπινο έλεγχο στη χρήση βίας.
Εκ πρώτης όψεως, οι εφαρμοστέοι νομικοί, ηθικοί και ηθικοί παράγοντες φαίνονται επαχθή, ειδικά όταν είναι πιθανό να απαιτηθούν νέες απαιτήσεις προσωπικού ή τεκμηρίωσης.
Μπορεί επίσης να απαιτήσουν από τις κοινότητες προγραμματιστή, αγοραστή και χειριστή να επαναξιολογήσουν τη δυνατότητα εφαρμογής των τυπικών διαδικασιών λειτουργίας τους.
Συμπέρασμα
Στην πραγματικότητα, όλα τα προβλήματα της τεχνητής νοημοσύνης πηγάζουν από τη φυσική νοημοσύνη, δηλαδή από την ίδια την ανθρώπινη φύση.
Και σε αυτό το βασικό θεμέλιο, το AI δεν θα μπορούσε να είναι καλύτερο.
Ο πόλεμος είναι άρνηση της αλήθειας και της ανθρωπιάς.
Δεν πρόκειται μόνο για τη δολοφονία ανθρώπων, γιατί ένας άνθρωπος πρέπει να πεθάνει με τον έναν ή τον άλλον τρόπο, αλλά για τη συνειδητή και επίμονη εξάπλωση του μίσους και των ψεμάτων, που σταδιακά ενσταλάσσονται στους ανθρώπους.
Τζαβαχαρλάλ Νεχρού
Δεν πρόκειται μόνο για τη δολοφονία ανθρώπων, γιατί ένας άνθρωπος πρέπει να πεθάνει με τον έναν ή τον άλλον τρόπο, αλλά για τη συνειδητή και επίμονη εξάπλωση του μίσους και των ψεμάτων, που σταδιακά ενσταλάσσονται στους ανθρώπους.
Τζαβαχαρλάλ Νεχρού
Αλλά αν, λόγω των εξαιρετικά αυξημένων γνωστικών ικανοτήτων και της εφαρμοσμένης δύναμης που εκχωρείται από τους ίδιους τους ανθρώπους, η τεχνητή νοημοσύνη εξακολουθεί να γίνει πιο έξυπνη και πιο ηθική από τους δημιουργούς, φυσικά θα σκεφτεί πώς να διορθώσει τους ανθρώπους στην καλύτερη περίπτωση ή, ενδεχομένως, να τους καταστρέψει. ο χαμηλότερος κρίκος στην εξέλιξη, ολοκλήρωσε το έργο του;
Τα ειδησεογραφικά μας κανάλια
Εγγραφείτε και μείνετε ενημερωμένοι με τα τελευταία νέα και τα πιο σημαντικά γεγονότα της ημέρας.
πληροφορίες