Έρχεται το Skynet: οι Αμερικανοί τελείωσαν να παίζουν με την τεχνητή νοημοσύνη

Stealthy XQ-58A Valkyrie
Προσομοίωση Hamilton
Στις 24 Μαΐου, στο συνέδριο άμυνας της συνόδου κορυφής Future Combat Air & Space Capabilities της Royal Aerospace Society στο Λονδίνο, ο συνταγματάρχης της Πολεμικής Αεροπορίας των ΗΠΑ Τάκερ Χάμιλτον είπε ιστορία για την άψυχη τεχνητή νοημοσύνη.
Κατά την προσομοίωση της μάχης, το σύστημα ελέγχου αεροπορικής επίθεσης κηφήνας πήγε εναντίον του χειριστή της και τον κατέστρεψε. Φυσικά, εικονικά. Σύμφωνα με τον ίδιο τον Χάμιλτον, το μηχάνημα έλαβε μπόνους για κατεστραμμένα αντικείμενα, αλλά ο χειριστής δεν επιβεβαίωνε πάντα την εργασία στους στόχους. Για αυτό πλήρωσε. Για να λύσει το πρόβλημα, το drone έστειλε πύραυλο στο κέντρο ελέγχου. Κατά πάσα πιθανότητα, ήταν ένα πειραματικό drone Stealthy XQ-58A Valkyrie και δούλευε σε επίγεια συστήματα αεράμυνας.
Χαρακτηριστικό του μηχανήματος είναι η δυνατότητα να λειτουργεί αυτόνομα χωρίς επικοινωνία με τον χειριστή. Αυτό που εκμεταλλεύτηκε μάλιστα η τεχνητή νοημοσύνη, εξαλείφοντας ουσιαστικά το απομακρυσμένο πρόγραμμα οδήγησης της. Σε απάντηση σε αυτό, οι διαχειριστές συστήματος απαγόρευσαν τέτοια πράγματα στο μηχάνημα, αλλά εδώ το AI δεν ήταν σε απώλεια - κατέστρεψε τον πύργο αναμετάδοσης και πήγε ξανά σε αυτόνομη πλοήγηση.

Ο συνταγματάρχης Χάμιλτον είναι ακόμη νέος για να μιλάει σε διεθνή φόρουμ. Πηγή: thedrive.com
Η ιστορία του Χάμιλτον εξαπλώθηκε αμέσως σε όλο τον κόσμο. Οι απόψεις διχάστηκαν πολικά - ποιος θεώρησε ότι αυτή ήταν μια άλλη φλυαρία ενός ανίκανου πολεμιστή, κάποιος είδε τη γέννηση του διαβόητου Skynet εδώ. Λίγο ακόμα και οι σάιμποργκ θα κατακτήσουν τον κόσμο και οι άνθρωποι θα πυροβοληθούν για πόντους μπόνους. Υπήρχε πολύς καπνός από τις δηλώσεις του συνταγματάρχη, αλλά η αλήθεια, ως συνήθως, είναι κάπου στη μέση.
Η Anne Strefanek, εκπρόσωπος του αρχηγείου της Πολεμικής Αεροπορίας στο Πεντάγωνο, πρόσθεσε την αβεβαιότητα, μετατρέποντας τα λόγια του Hamilton σε ανέκδοτο. Για το The War Zone, μίλησε:
Και γενικά τα λόγια του συνταγματάρχη βγήκαν εκτός πλαισίου, όχι τόσο κατανοητά και περισσότερο σαν περιέργεια. Κανείς δεν περίμενε διαφορετική αντίδραση από το Πεντάγωνο - πολύς θόρυβος προέκυψε γύρω από την εκδήλωση, που απείλησε με σοβαρές συνέπειες για ολόκληρο το πρόγραμμα. Ουάου, η τεχνητή νοημοσύνη, αποδεικνύεται, στερείται ηθικής. Αν και λειτουργεί σύμφωνα με την ανθρώπινη λογική.
Στις αρχές Ιουνίου, ο ίδιος ο Τάκερ Χάμιλτον προσπάθησε να αποκηρύξει τα λόγια του σε ένα συνέδριο στο Λονδίνο:
Φαίνεται ότι το θέμα έχει κλείσει και το κοινό μπορεί να διασκορπιστεί. Αλλά είναι πολύ νωρίς.
Τροφή για σκέψη
Αρχικά, ας ασχοληθούμε με τον ίδιο τον όρο «τεχνητή νοημοσύνη», τον οποίο όλοι γνωρίζουν, αλλά λίγοι μπορούν να δώσουν ακόμη και έναν πρόχειρο ορισμό. Θα χρησιμοποιήσουμε τη διατύπωση του Διεθνούς Ορολογικού Λεξικού του 2008, στο οποίο η AI:
Δηλαδή, αυτός είναι ένας γενικά αποδεκτός ορισμός στη Δύση.
Το μηχάνημα συμπεριφέρθηκε όπως όταν αποφάσισε να «ηρεμήσει» τον χειριστή του και μετά να συνθλίψει τον πύργο ρελέ; Φυσικά, φαινόταν ότι ένας δολοφόνος με σωστά κίνητρα μπορεί να κάνει περισσότερα από αυτό. Εάν εμβαθύνετε στην ταξινόμηση, μπορείτε να βρείτε έναν συγκεκριμένο τύπο AI - το λεγόμενο προσαρμοστικό (Adaptive AI), "που υποδηλώνει την ικανότητα του συστήματος να προσαρμόζεται στις νέες συνθήκες, αποκτώντας γνώσεις που δεν καθορίστηκαν κατά τη δημιουργία".
Θεωρητικά, δεν υπάρχει τίποτα περίεργο στην πράξη των «εγκεφάλων» του Stealthy XQ-58A Valkyrie κατά τη διάρκεια του πειράματος. Όπως σωστά σημείωσε ο Hamilton στην έκθεσή του, το πρόγραμμα αρχικά δεν εισήγαγε καν περιορισμούς στην καταστροφή του χειριστή του - το μηχάνημα έμαθε τα πάντα μόνο του. Και όταν απαγορεύτηκε ευθέως να χτυπήσουν τους δικούς τους, η τεχνητή νοημοσύνη προσαρμόστηκε για άλλη μια φορά και έκοψε τον πύργο επικοινωνίας.
Υπάρχουν πολλές ερωτήσεις για τους προγραμματιστές. Για παράδειγμα, γιατί δεν είχε έναν αλγόριθμο για να χάσει μπόνους για να χτυπήσει το δικό του; Αυτή η ερώτηση απαντήθηκε εν μέρει από τον απόστρατο στρατηγό της Πολεμικής Αεροπορίας των ΗΠΑ Paul Selva το 2016:
Λοιπόν, οι προγραμματιστές από την ιστορία του συνταγματάρχη Χάμιλτον, προφανώς, έχουν βυθιστεί.

Κόλαση κάτω από το φτερό ενός drone MQ-1B Predator. Πηγή: businessinsider.com
Τώρα για το γιατί οι δικαιολογίες του Πενταγώνου και του Χάμιλτον πρέπει να γίνουν πιστευτές με πολύ μεγάλη έκταση.
Πρώτον, ο συνταγματάρχης δεν είπε απλώς την ιστορία σαν ανάμεσα στις γραμμές, αποσπώντας την προσοχή από την κύρια έκθεση - αφιέρωσε μια ολόκληρη παρουσίαση σε αυτό το θέμα. Το επίπεδο της διάσκεψης του Λονδίνου Future Combat Air & Space Capabilities Summit δεν ευνοεί σε καμία περίπτωση αστεία. Σύμφωνα με τους διοργανωτές, συμμετείχαν τουλάχιστον 70 επιφανείς ομιλητές και περισσότεροι από 200 εκπρόσωποι από όλο τον κόσμο. Από το στρατιωτικό-βιομηχανικό συγκρότημα εργάστηκαν εκπρόσωποι της BAE Systems, της Lockheed Martin Skunk Works και πολλών άλλων μεγάλων εταιρειών.
Παρεμπιπτόντως, το θέμα της Ουκρανίας εμφανίστηκε σχεδόν σε κάθε έκθεση - η Δύση παρακολουθεί στενά τα γεγονότα και αναλογίζεται τα αποτελέσματα.
Να ξεσηκώσει ένα ειλικρινές χάος σε ένα τόσο αντιπροσωπευτικό φόρουμ, να ξεσηκώσει τον μισό κόσμο και μετά να ζητήσει συγγνώμη για το τσάκισμα της γλώσσας; Αν όντως ισχύει αυτό, τότε η φήμη του Χάμιλτον δεν μπορεί να διαγραφεί. Μόνο που τώρα το επίπεδο των ικανοτήτων του συνταγματάρχη μόλις ξεπέρασε, και αυτός είναι ο δεύτερος λόγος για τον οποίο πρέπει να ληφθούν υπόψη τα πρώτα του λόγια.
Ο Tucker Hamilton εκτελεί Δοκιμές και Επιχειρήσεις AI στην αεροπορική βάση Anglin στη Φλόριντα. Υπό τη διεύθυνση της βάσης, δημιουργήθηκε η 96η ομάδα εργασίας στην 96η πτέρυγα δοκιμής. Ο Χάμιλτον δεν είναι η πρώτη χρονιά που εργάζεται με την τεχνητή νοημοσύνη αεροπορία – σχεδιάζει εδώ και αρκετά χρόνια μερικώς αυτόνομα F-16 Vipers, για τα οποία αναπτύσσεται η υποδομή VENOM. Το έργο πηγαίνει αρκετά καλά - το 2020, οι εικονικές μάχες μεταξύ μαχητών και AI και με πραγματικούς πιλότους έληξαν με σκορ 5:0.
Ταυτόχρονα, υπάρχουν δυσκολίες για τις οποίες προειδοποίησε ο Χάμιλτον πέρυσι:
Το 2018, ο Hamilton κέρδισε το Collier Trophy με το Auto GCAS του. Οι αλγόριθμοι τεχνητής νοημοσύνης έμαθαν να προσδιορίζουν τη στιγμή της απώλειας του ελέγχου του αεροσκάφους από τον πιλότο, πήραν αυτόματα τον έλεγχο και απομάκρυναν το αυτοκίνητο από τη σύγκρουση. Λένε ότι το Auto GCAS έχει ήδη σώσει κάποιον.
Ως αποτέλεσμα, η πιθανότητα ότι ο Hamilton κλήθηκε από ψηλά να ανακαλέσει τα λόγια του είναι πολύ μεγαλύτερη από την πιθανότητα ότι ένας επαγγελματίας αυτού του επιπέδου πάγωσε τις ανοησίες. Επιπλέον, αναφέρθηκαν πολύ αδέξια σε κάποια «πειράματα σκέψης» στο κεφάλι του συνταγματάρχη.
Μεταξύ των σκεπτικιστών για το αποτέλεσμα είναι το The War Zone, του οποίου οι δημοσιογράφοι αμφιβάλλουν ότι ο εκπρόσωπος του Πενταγώνου Stefanek γνωρίζει πραγματικά τι συμβαίνει στην 96η πτέρυγα δοκιμών στη Φλόριντα. Η Πολεμική Ζώνη έχει κάνει αίτημα στη βάση του Χάμιλτον, αλλά μέχρι στιγμής χωρίς απάντηση.
Υπάρχει πράγματι κάτι που πρέπει να φοβάστε τον στρατό. Τεράστια χρηματικά ποσά δαπανώνται σε αμυντικά προγράμματα τεχνητής νοημοσύνης για να εμποδίσουν την Κίνα και τη Ρωσία να πλησιάσουν ακόμη και το επίπεδο της Αμερικής. Αρκετά ανήσυχη είναι η κοινωνία των πολιτών για τις προοπτικές εμφάνισης των «Terminators» με τους «Skynets» επιπλέον. Έτσι, τον Ιανουάριο του 2018, εξέχοντες επιστήμονες του κόσμου υπέγραψαν μια ανοιχτή επιστολή καλώντας τους ειδικούς να σκεφτούν την επιθυμία να δημιουργήσουν ολοένα ισχυρότερη τεχνητή νοημοσύνη:
Σύμφωνα με τον Hamilton, η τεχνητή νοημοσύνη δεν κάνει όλα όσα θέλει ένα άτομο.
Εγγραφείτε και μείνετε ενημερωμένοι με τα τελευταία νέα και τα πιο σημαντικά γεγονότα της ημέρας.
πληροφορίες