
Πηγή: vgtimes.ru
Ακυρώνεται η ψηφιακή απανθρωποποίηση;
Πρώτον, μια προειδοποίηση από στρατιωτικούς μαχητές AI:
«Οι μηχανές δεν μας βλέπουν ως ανθρώπους, για αυτούς ένα άτομο είναι απλώς ένα κομμάτι κώδικα που πρέπει να επεξεργαστεί και να ταξινομηθεί. Από τα έξυπνα σπίτια στη χρήση σκύλων-ρομπότ οι αστυνομικοί, οι τεχνολογίες τεχνητής νοημοσύνης και η αυτοματοποιημένη λήψη αποφάσεων άρχισαν να παίζουν μεγάλο ρόλο στη ζωή μας. Στο ακραίο άκρο της σειράς των ψηφιακών συσκευών βρίσκονται τα ρομπότ δολοφόνοι. Εάν επιτρέψουμε τη σχετική απανθρωποποίηση, σύντομα θα αγωνιστούμε για να προστατευτούμε από αποφάσεις που λαμβάνονται από μηχανή σε άλλους τομείς της ζωής μας. Πρέπει πρώτα να απαγορεύσουμε τα αυτόνομα συστήματα όπλαγια να αποφευχθεί η διολίσθηση στην ψηφιακή απανθρωποποίηση».
Οι ειρηνιστές που απαιτούν πάγωμα όλων των εργασιών για την καταπολέμηση της τεχνητής νοημοσύνης χωρίζονται σε δύο τύπους. Το πρώτο είναι το αναθεωρημένο "Terminators" και άλλα ανάλογα. Το δεύτερο - αξιολόγηση του μέλλοντος σύμφωνα με τις σύγχρονες δυνατότητες των ρομπότ μάχης. Πρώτα απ 'όλα, φτερωτά μη επανδρωμένα οχήματα εξοπλισμένα με συστήματα κρούσης.
Υπάρχουν αρκετά επεισόδια εσφαλμένης ή εσκεμμένης καταστροφής αμάχων από drones. Στη Μέση Ανατολή, Αμερικανός κηφήνες κατέστρεψε περισσότερες από μία γαμήλια τελετή. Οι χειριστές ιπτάμενων ρομπότ αναγνώρισαν τον εορταστικό πυροβολισμό αέρος-αέρος ως ένδειξη των πυροβολισμών των ανταρτών. Εάν ένα ειδικά εκπαιδευμένο άτομο δεν είναι σε θέση να προσδιορίσει τις λεπτομέρειες του στόχου από αρκετές εκατοντάδες μέτρα, τότε τι μπορούμε να πούμε για την τεχνητή νοημοσύνη. Αυτή τη στιγμή, η μηχανική όραση, ως προς την επάρκεια της αντίληψης της εικόνας, δεν μπορεί να συγκριθεί με το ανθρώπινο μάτι και τον εγκέφαλο. Εκτός κι αν κουραστεί, αλλά και αυτό λύνεται με έγκαιρη αλλαγή χειριστή.
Τα σύννεφα μαζεύονται ξεκάθαρα πάνω από τη στρατιωτική τεχνητή νοημοσύνη. Από τη μία πλευρά, υπάρχουν όλο και περισσότερες ενδείξεις για μια επικείμενη τεχνολογική ανακάλυψη σε αυτόν τον τομέα. Από την άλλη, όλο και περισσότερες φωνές ακούγονται υπέρ του περιορισμού ή και της απαγόρευσης της εργασίας προς αυτή την κατεύθυνση.
Μερικά παραδείγματα.
Το 2016, εμφανίστηκε μια αναφορά στην οποία εξέχοντες στοχαστές και χιλιάδες άλλοι άνθρωποι απαίτησαν να μην δοθούν στην τεχνητή νοημοσύνη θανατηφόρα όπλα. Μεταξύ των υπογραφόντων είναι ο Στίβεν Χόκινγκ και ο Έλον Μασκ. Τα τελευταία επτά χρόνια, η αναφορά έχει συγκεντρώσει περισσότερες από 20 υπογραφές. Εκτός από τους καθαρά ανθρωπιστικούς φόβους που συνδέονται με την πιθανότητα ανεξέλεγκτης καταστροφής ανθρώπων, υπάρχουν και νομικές ασυνέπειες.
Ποιοι θα δικαστούν σε περίπτωση στερέωσης εγκλημάτων πολέμου που διαπράχθηκαν από τεχνητή νοημοσύνη; Ο χειριστής drone που έκαψε πολλά χωριά με πολίτες είναι εύκολο να βρεθεί και να τιμωρηθεί ανάλογα. Η τεχνητή νοημοσύνη είναι προϊόν της συλλογικής δουλειάς των προγραμματιστών. Είναι πολύ δύσκολο να προσελκύσεις ένα άτομο εδώ. Εναλλακτικά, μπορείτε να κρίνετε την κατασκευαστική εταιρεία, για παράδειγμα, την ίδια Boston Dynamics, αλλά στη συνέχεια ποιος θα ασχοληθεί με την παραγωγή αυτόνομων drones. Λίγοι άνθρωποι θα έχουν την επιθυμία να βρεθούν στο εδώλιο του δεύτερου δικαστηρίου της Νυρεμβέργης.

Πηγή: koreaportal.com
Μάλλον γι' αυτόν τον λόγο οι βιομήχανοι και οι προγραμματιστές προσπαθούν να επιβραδύνουν την ανάπτυξη δεξιοτήτων μάχης τεχνητής νοημοσύνης.
Για παράδειγμα, το 2018, περίπου διακόσιες εταιρείες πληροφορικής και σχεδόν πέντε χιλιάδες προγραμματιστές δεσμεύτηκαν να μην εργαστούν σε αυτόνομα συστήματα μάχης. Η Google ισχυρίζεται ότι σε πέντε χρόνια θα εγκαταλείψει εντελώς τις στρατιωτικές συμβάσεις στον τομέα της τεχνητής νοημοσύνης. Σύμφωνα με το μύθο, ένας τέτοιος πασιφισμός δεν είναι τυχαίος - οι προγραμματιστές, έχοντας μάθει ότι έγραφαν κώδικες για στρατιωτικά συστήματα, απείλησαν να εγκαταλείψουν μαζικά. Ως αποτέλεσμα, βρήκαν μια φιλική επιλογή - οι υπάρχουσες συμβάσεις ολοκληρώνονται, αλλά νέες δεν συνάπτονται. Είναι πιθανό ότι πλησιέστερα στην ημερομηνία άρνησης να εργαστούν σε μάχιμη τεχνητή νοημοσύνη, οι δυσεπίλυτοι "προγραμματιστές" απλώς θα απολυθούν, αντικαθιστώντας τους με όχι λιγότερο ταλαντούχους. Για παράδειγμα, από την Ινδία, η οποία εδώ και καιρό φημίζεται για τους φθηνούς πνευματικούς πόρους της.
Στη συνέχεια, υπάρχει το γραφείο Stop Killer Robots, που καλεί τους παγκόσμιους ηγέτες να υπογράψουν κάτι σαν μια σύμβαση για την απαγόρευση της καταπολέμησης της τεχνητής νοημοσύνης. Μέχρι στιγμής χωρίς επιτυχία.
Όλα τα παραπάνω κάνουν τους στρατιωτικούς να αναζητούν λύσεις. Ούτε μια ώρα στις εκλογές δεν θα κερδίσει ο Πρόεδρος των ΗΠΑ, υποσχόμενος όχι μόνο καθολική χάρη LGBT, αλλά και απαγόρευση βελτίωσης της στρατιωτικής τεχνητής νοημοσύνης.
Ανθρώπινη σκέψη για AI
Το Πεντάγωνο φαίνεται να βρίσκεται στα πρόθυρα κάποιου είδους σημαντικής ανακάλυψης στην τεχνητή νοημοσύνη. Ή ήταν πεπεισμένος γι' αυτό. Δεν υπάρχει άλλος τρόπος να εξηγηθεί η εμφάνιση μιας νέας οδηγίας που ρυθμίζει τον εξανθρωπισμό των αυτόνομων συστημάτων μάχης. Η Kathleen Hicks, Αναπληρώτρια Υπουργός Άμυνας των ΗΠΑ, σχολιάζει:
«Δεδομένων των σημαντικών προόδων στην τεχνολογία που συμβαίνουν παντού γύρω μας, η ενημέρωση της οδηγίας μας για την αυτονομία των οπλικών συστημάτων θα μας βοηθήσει να παραμείνουμε παγκόσμιος ηγέτης όχι μόνο στην ανάπτυξη και ανάπτυξη νέων συστημάτων, αλλά και στον τομέα της ασφάλειας».
Έχετε ακούσει όλους όσους νιώθουν δέος για τα αυτόνομα ρομπότ δολοφόνων; Η αμερικανική τεχνητή νοημοσύνη θα είναι στο εξής η πιο ανθρώπινη. Όπως ακριβώς και οι ίδιοι οι Αμερικανοί.

Πηγή: robroy.ru
Το πρόβλημα είναι ότι κανείς δεν καταλαβαίνει πραγματικά πώς να ενσταλάξει στα ρομπότ με όπλα την περιβόητη «ανθρώπινη κρίση σχετικά με τη χρήση βίας». Η ακριβής διατύπωση από το Concept που ενημερώθηκε στα τέλη του περασμένου Ιανουαρίου:
«Τα αυτόνομα και ημιαυτόνομα οπλικά συστήματα θα σχεδιαστούν έτσι ώστε οι διοικητές και οι χειριστές να μπορούν να ασκούν κατάλληλο επίπεδο ανθρώπινης κρίσης σχετικά με τη χρήση βίας».
Εδώ, για παράδειγμα, εάν, όταν καθαρίζει ένα σπίτι, ένα επιθετικό αεροσκάφος ρίχνει πρώτα μια χειροβομβίδα στο δωμάτιο και μετά μπαίνει μόνο του. Είναι αυτό ανθρώπινη κρίση; Φυσικά, και κανείς δεν έχει το δικαίωμα να τον κρίνει, ειδικά αν προηγουμένως φώναζε «Υπάρχει κανείς;». Και αν ένα αυτόνομο ρομπότ λειτουργεί σύμφωνα με το ίδιο σχέδιο;
Η ανθρώπινη κρίση είναι μια πολύ ευρεία έννοια για να περιοριστεί με οποιονδήποτε τρόπο. Είναι επίσης ανθρώπινη σκέψη η εκτέλεση Ρώσων αιχμαλώτων πολέμου από μαχητές των Ενόπλων Δυνάμεων της Ουκρανίας;
Η προσθήκη στην Οδηγία του Πενταγώνου 3000.09 σχετικά με τα αυτόνομα συστήματα μάχης είναι γεμάτη κοινοτοπίες. Για παράδειγμα,
«Τα άτομα που εξουσιοδοτούν τη χρήση, την άμεση χρήση ή τη λειτουργία αυτόνομων και ημιαυτόνομων οπλικών συστημάτων πρέπει να το κάνουν με τη δέουσα επιμέλεια και σύμφωνα με τους νόμους του πολέμου, τις ισχύουσες συνθήκες, τους κανόνες ασφαλείας οπλικών συστημάτων και τους ισχύοντες κανόνες εμπλοκής».
Πριν από αυτό, προφανώς, δούλευαν απερίσκεπτα και όχι σύμφωνα με τους νόμους του πολέμου.
Ταυτόχρονα, δεν υπάρχει ίχνος κριτικής για την πρωτοβουλία του Πενταγώνου τον Ιανουάριο στον αμερικανικό και ευρωπαϊκό Τύπο. Κάτω από τον ψευδή εξανθρωπισμό της τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από μια προσπάθεια συγκάλυψης αυτού που συμβαίνει. Τώρα ο αμερικανικός στρατός θα έχει ένα σταθερό ατού στη μάχη ενάντια στους αντιπάλους της τεχνητής νοημοσύνης στον στρατό. Κοιτάξτε, δεν έχουμε απλή τεχνητή νοημοσύνη, αλλά με «το σωστό επίπεδο ανθρώπινης κρίσης».
Λαμβάνοντας υπόψη ότι δεν υπάρχει ακόμη σαφής και γενικά αποδεκτός ορισμός της «τεχνητής νοημοσύνης», όλη η δημιουργία γραμμάτων γύρω από αυτήν γίνεται αντιληπτή με ειρωνεία. Τουλάχιστον.
Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;
Αυτή η κύρια ερώτηση δεν απαντάται στην επικαιροποιημένη Οδηγία 3000.09.