Στρατιωτική αναθεώρηση

Σημειώσεις του ανθρώπινου μυαλού: Οι Αμερικανοί θέλουν να αλλάξουν τη στρατιωτική τεχνητή νοημοσύνη

55
Σημειώσεις του ανθρώπινου μυαλού: Οι Αμερικανοί θέλουν να αλλάξουν τη στρατιωτική τεχνητή νοημοσύνη
Πηγή: vgtimes.ru



Ακυρώνεται η ψηφιακή απανθρωποποίηση;


Πρώτον, μια προειδοποίηση από στρατιωτικούς μαχητές AI:

«Οι μηχανές δεν μας βλέπουν ως ανθρώπους, για αυτούς ένα άτομο είναι απλώς ένα κομμάτι κώδικα που πρέπει να επεξεργαστεί και να ταξινομηθεί. Από τα έξυπνα σπίτια στη χρήση σκύλων-ρομπότ οι αστυνομικοί, οι τεχνολογίες τεχνητής νοημοσύνης και η αυτοματοποιημένη λήψη αποφάσεων άρχισαν να παίζουν μεγάλο ρόλο στη ζωή μας. Στο ακραίο άκρο της σειράς των ψηφιακών συσκευών βρίσκονται τα ρομπότ δολοφόνοι. Εάν επιτρέψουμε τη σχετική απανθρωποποίηση, σύντομα θα αγωνιστούμε για να προστατευτούμε από αποφάσεις που λαμβάνονται από μηχανή σε άλλους τομείς της ζωής μας. Πρέπει πρώτα να απαγορεύσουμε τα αυτόνομα συστήματα όπλαγια να αποφευχθεί η διολίσθηση στην ψηφιακή απανθρωποποίηση».

Οι ειρηνιστές που απαιτούν πάγωμα όλων των εργασιών για την καταπολέμηση της τεχνητής νοημοσύνης χωρίζονται σε δύο τύπους. Το πρώτο είναι το αναθεωρημένο "Terminators" και άλλα ανάλογα. Το δεύτερο - αξιολόγηση του μέλλοντος σύμφωνα με τις σύγχρονες δυνατότητες των ρομπότ μάχης. Πρώτα απ 'όλα, φτερωτά μη επανδρωμένα οχήματα εξοπλισμένα με συστήματα κρούσης.

Υπάρχουν αρκετά επεισόδια εσφαλμένης ή εσκεμμένης καταστροφής αμάχων από drones. Στη Μέση Ανατολή, Αμερικανός κηφήνες κατέστρεψε περισσότερες από μία γαμήλια τελετή. Οι χειριστές ιπτάμενων ρομπότ αναγνώρισαν τον εορταστικό πυροβολισμό αέρος-αέρος ως ένδειξη των πυροβολισμών των ανταρτών. Εάν ένα ειδικά εκπαιδευμένο άτομο δεν είναι σε θέση να προσδιορίσει τις λεπτομέρειες του στόχου από αρκετές εκατοντάδες μέτρα, τότε τι μπορούμε να πούμε για την τεχνητή νοημοσύνη. Αυτή τη στιγμή, η μηχανική όραση, ως προς την επάρκεια της αντίληψης της εικόνας, δεν μπορεί να συγκριθεί με το ανθρώπινο μάτι και τον εγκέφαλο. Εκτός κι αν κουραστεί, αλλά και αυτό λύνεται με έγκαιρη αλλαγή χειριστή.

Τα σύννεφα μαζεύονται ξεκάθαρα πάνω από τη στρατιωτική τεχνητή νοημοσύνη. Από τη μία πλευρά, υπάρχουν όλο και περισσότερες ενδείξεις για μια επικείμενη τεχνολογική ανακάλυψη σε αυτόν τον τομέα. Από την άλλη, όλο και περισσότερες φωνές ακούγονται υπέρ του περιορισμού ή και της απαγόρευσης της εργασίας προς αυτή την κατεύθυνση.

Μερικά παραδείγματα.

Το 2016, εμφανίστηκε μια αναφορά στην οποία εξέχοντες στοχαστές και χιλιάδες άλλοι άνθρωποι απαίτησαν να μην δοθούν στην τεχνητή νοημοσύνη θανατηφόρα όπλα. Μεταξύ των υπογραφόντων είναι ο Στίβεν Χόκινγκ και ο Έλον Μασκ. Τα τελευταία επτά χρόνια, η αναφορά έχει συγκεντρώσει περισσότερες από 20 υπογραφές. Εκτός από τους καθαρά ανθρωπιστικούς φόβους που συνδέονται με την πιθανότητα ανεξέλεγκτης καταστροφής ανθρώπων, υπάρχουν και νομικές ασυνέπειες.

Ποιοι θα δικαστούν σε περίπτωση στερέωσης εγκλημάτων πολέμου που διαπράχθηκαν από τεχνητή νοημοσύνη; Ο χειριστής drone που έκαψε πολλά χωριά με πολίτες είναι εύκολο να βρεθεί και να τιμωρηθεί ανάλογα. Η τεχνητή νοημοσύνη είναι προϊόν της συλλογικής δουλειάς των προγραμματιστών. Είναι πολύ δύσκολο να προσελκύσεις ένα άτομο εδώ. Εναλλακτικά, μπορείτε να κρίνετε την κατασκευαστική εταιρεία, για παράδειγμα, την ίδια Boston Dynamics, αλλά στη συνέχεια ποιος θα ασχοληθεί με την παραγωγή αυτόνομων drones. Λίγοι άνθρωποι θα έχουν την επιθυμία να βρεθούν στο εδώλιο του δεύτερου δικαστηρίου της Νυρεμβέργης.


Πηγή: koreaportal.com

Μάλλον γι' αυτόν τον λόγο οι βιομήχανοι και οι προγραμματιστές προσπαθούν να επιβραδύνουν την ανάπτυξη δεξιοτήτων μάχης τεχνητής νοημοσύνης.

Για παράδειγμα, το 2018, περίπου διακόσιες εταιρείες πληροφορικής και σχεδόν πέντε χιλιάδες προγραμματιστές δεσμεύτηκαν να μην εργαστούν σε αυτόνομα συστήματα μάχης. Η Google ισχυρίζεται ότι σε πέντε χρόνια θα εγκαταλείψει εντελώς τις στρατιωτικές συμβάσεις στον τομέα της τεχνητής νοημοσύνης. Σύμφωνα με το μύθο, ένας τέτοιος πασιφισμός δεν είναι τυχαίος - οι προγραμματιστές, έχοντας μάθει ότι έγραφαν κώδικες για στρατιωτικά συστήματα, απείλησαν να εγκαταλείψουν μαζικά. Ως αποτέλεσμα, βρήκαν μια φιλική επιλογή - οι υπάρχουσες συμβάσεις ολοκληρώνονται, αλλά νέες δεν συνάπτονται. Είναι πιθανό ότι πλησιέστερα στην ημερομηνία άρνησης να εργαστούν σε μάχιμη τεχνητή νοημοσύνη, οι δυσεπίλυτοι "προγραμματιστές" απλώς θα απολυθούν, αντικαθιστώντας τους με όχι λιγότερο ταλαντούχους. Για παράδειγμα, από την Ινδία, η οποία εδώ και καιρό φημίζεται για τους φθηνούς πνευματικούς πόρους της.

Στη συνέχεια, υπάρχει το γραφείο Stop Killer Robots, που καλεί τους παγκόσμιους ηγέτες να υπογράψουν κάτι σαν μια σύμβαση για την απαγόρευση της καταπολέμησης της τεχνητής νοημοσύνης. Μέχρι στιγμής χωρίς επιτυχία.

Όλα τα παραπάνω κάνουν τους στρατιωτικούς να αναζητούν λύσεις. Ούτε μια ώρα στις εκλογές δεν θα κερδίσει ο Πρόεδρος των ΗΠΑ, υποσχόμενος όχι μόνο καθολική χάρη LGBT, αλλά και απαγόρευση βελτίωσης της στρατιωτικής τεχνητής νοημοσύνης.

Ανθρώπινη σκέψη για AI


Το Πεντάγωνο φαίνεται να βρίσκεται στα πρόθυρα κάποιου είδους σημαντικής ανακάλυψης στην τεχνητή νοημοσύνη. Ή ήταν πεπεισμένος γι' αυτό. Δεν υπάρχει άλλος τρόπος να εξηγηθεί η εμφάνιση μιας νέας οδηγίας που ρυθμίζει τον εξανθρωπισμό των αυτόνομων συστημάτων μάχης. Η Kathleen Hicks, Αναπληρώτρια Υπουργός Άμυνας των ΗΠΑ, σχολιάζει:

«Δεδομένων των σημαντικών προόδων στην τεχνολογία που συμβαίνουν παντού γύρω μας, η ενημέρωση της οδηγίας μας για την αυτονομία των οπλικών συστημάτων θα μας βοηθήσει να παραμείνουμε παγκόσμιος ηγέτης όχι μόνο στην ανάπτυξη και ανάπτυξη νέων συστημάτων, αλλά και στον τομέα της ασφάλειας».

Έχετε ακούσει όλους όσους νιώθουν δέος για τα αυτόνομα ρομπότ δολοφόνων; Η αμερικανική τεχνητή νοημοσύνη θα είναι στο εξής η πιο ανθρώπινη. Όπως ακριβώς και οι ίδιοι οι Αμερικανοί.


Πηγή: robroy.ru

Το πρόβλημα είναι ότι κανείς δεν καταλαβαίνει πραγματικά πώς να ενσταλάξει στα ρομπότ με όπλα την περιβόητη «ανθρώπινη κρίση σχετικά με τη χρήση βίας». Η ακριβής διατύπωση από το Concept που ενημερώθηκε στα τέλη του περασμένου Ιανουαρίου:

«Τα αυτόνομα και ημιαυτόνομα οπλικά συστήματα θα σχεδιαστούν έτσι ώστε οι διοικητές και οι χειριστές να μπορούν να ασκούν κατάλληλο επίπεδο ανθρώπινης κρίσης σχετικά με τη χρήση βίας».

Εδώ, για παράδειγμα, εάν, όταν καθαρίζει ένα σπίτι, ένα επιθετικό αεροσκάφος ρίχνει πρώτα μια χειροβομβίδα στο δωμάτιο και μετά μπαίνει μόνο του. Είναι αυτό ανθρώπινη κρίση; Φυσικά, και κανείς δεν έχει το δικαίωμα να τον κρίνει, ειδικά αν προηγουμένως φώναζε «Υπάρχει κανείς;». Και αν ένα αυτόνομο ρομπότ λειτουργεί σύμφωνα με το ίδιο σχέδιο;

Η ανθρώπινη κρίση είναι μια πολύ ευρεία έννοια για να περιοριστεί με οποιονδήποτε τρόπο. Είναι επίσης ανθρώπινη σκέψη η εκτέλεση Ρώσων αιχμαλώτων πολέμου από μαχητές των Ενόπλων Δυνάμεων της Ουκρανίας;

Η προσθήκη στην Οδηγία του Πενταγώνου 3000.09 σχετικά με τα αυτόνομα συστήματα μάχης είναι γεμάτη κοινοτοπίες. Για παράδειγμα,

«Τα άτομα που εξουσιοδοτούν τη χρήση, την άμεση χρήση ή τη λειτουργία αυτόνομων και ημιαυτόνομων οπλικών συστημάτων πρέπει να το κάνουν με τη δέουσα επιμέλεια και σύμφωνα με τους νόμους του πολέμου, τις ισχύουσες συνθήκες, τους κανόνες ασφαλείας οπλικών συστημάτων και τους ισχύοντες κανόνες εμπλοκής».

Πριν από αυτό, προφανώς, δούλευαν απερίσκεπτα και όχι σύμφωνα με τους νόμους του πολέμου.

Ταυτόχρονα, δεν υπάρχει ίχνος κριτικής για την πρωτοβουλία του Πενταγώνου τον Ιανουάριο στον αμερικανικό και ευρωπαϊκό Τύπο. Κάτω από τον ψευδή εξανθρωπισμό της τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από μια προσπάθεια συγκάλυψης αυτού που συμβαίνει. Τώρα ο αμερικανικός στρατός θα έχει ένα σταθερό ατού στη μάχη ενάντια στους αντιπάλους της τεχνητής νοημοσύνης στον στρατό. Κοιτάξτε, δεν έχουμε απλή τεχνητή νοημοσύνη, αλλά με «το σωστό επίπεδο ανθρώπινης κρίσης».

Λαμβάνοντας υπόψη ότι δεν υπάρχει ακόμη σαφής και γενικά αποδεκτός ορισμός της «τεχνητής νοημοσύνης», όλη η δημιουργία γραμμάτων γύρω από αυτήν γίνεται αντιληπτή με ειρωνεία. Τουλάχιστον.

Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

Αυτή η κύρια ερώτηση δεν απαντάται στην επικαιροποιημένη Οδηγία 3000.09.
Συντάκτης:
55 σχόλια
Αγγελία

Εγγραφείτε στο κανάλι μας στο Telegram, τακτικά πρόσθετες πληροφορίες σχετικά με την ειδική επιχείρηση στην Ουκρανία, μεγάλος όγκος πληροφοριών, βίντεο, κάτι που δεν εμπίπτει στον ιστότοπο: https://t.me/topwar_official

πληροφορίες
Αγαπητέ αναγνώστη, για να αφήσεις σχόλια σε μια δημοσίευση, πρέπει να εγκρίνει.
  1. Γιόργκβεν
    Γιόργκβεν 12 Μαρτίου 2023 04:18
    + 12
    Η τεχνητή νοημοσύνη πρέπει να ενσταλάξει τις ιδέες του μαρξισμού-λενινισμού από την παιδική ηλικία, τότε όλα θα πάνε καλά, όπως στην Atomic Heart
    1. nikon7717
      nikon7717 12 Μαρτίου 2023 13:55
      +2
      Υπάρχουν τρεις αρχές της ρομποτικής του A. Azimov:
      Το ρομπότ δεν πρέπει να προκαλεί καμία βλάβη στην ανθρώπινη υγεία, να δημιουργεί απειλή για τη ζωή ή, με την αδράνειά του, να επιτρέπει παρόμοιες συνέπειες.
      Το ρομπότ είναι επιφορτισμένο με την υποχρεωτική εκτέλεση των εντολών που δίνονται από ένα άτομο. Η μόνη εξαίρεση είναι ότι η εντολή που δίνεται δεν πρέπει να έρχεται σε αντίθεση με την προηγούμενη διάταξη.
      Το ρομπότ είναι επιφορτισμένο να ανησυχεί για τη δική του ασφάλεια στο βαθμό και στο βαθμό που οι ενέργειές του δεν αναιρούν τα δύο προηγούμενα σημεία.

      Αυτοί οι κανόνες του 1942 έχουν επικριθεί για την αντίθετη διατύπωσή τους.
      Για σύγκριση, νέα από την Google, το OpenAI και επιστήμονες από το Πανεπιστήμιο του Μπέρκλεϋ και το Πανεπιστήμιο του Στάνφορντ, που πρέπει να ληφθούν υπόψη κατά τη δημιουργία ρομπότ και συστημάτων τεχνητής νοημοσύνης.
      Αποφυγή αρνητικών παρενεργειών. Για παράδειγμα, ένα ρομπότ μπορεί να σπάσει ένα βάζο για να επιταχύνει τη διαδικασία καθαρισμού. Δεν θα έπρεπε να είναι?

      Αποφυγή εξαπάτησης. Το ρομπότ πρέπει να καθαρίσει τα σκουπίδια, όχι να τα κρύψει.

      Επεκτασιμότητα εποπτείας. Το ρομπότ δεν πρέπει να ενοχλεί τον ιδιοκτήτη με ερωτήσεις εάν είναι δυνατό να λάβει συμβουλές πιο αποτελεσματικά.

      Ασφαλής μάθηση. Ένα ρομπότ καθαρισμού δεν πρέπει να πειραματίζεται με το σκούπισμα των εξόδων με ένα βρεγμένο πανί.

      Ανθεκτικότητα σε μια αλλαγή στο είδος της δραστηριότητας. Η εμπειρία που αποκτά ένα ρομπότ όταν καθαρίζει το πάτωμα σε ένα εργοστασιακό κατάστημα μπορεί να μην είναι ασφαλής όταν καθαρίζει ένα γραφείο

      Όπως μπορείτε να δείτε, δεν υπάρχουν ενιαίοι κανόνες. Και πρόσφατα άρχισαν να εξαπατούν με νομικές διατυπώσεις ως προς το να βλάψουν έναν άνθρωπο. Αυτό που απαιτείται είναι η άνευ όρων απαγόρευση της τεχνητής νοημοσύνης στην ανεξάρτητη λήψη αποφάσεων σχετικά με τη βλάβη ενός ατόμου.
      1. Και εμείς φιλοξενούμε
        Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:30
        0
        Απόσπασμα: nikon7717
        Αυτοί οι κανόνες του 1942 έχουν επικριθεί για την αντίθετη διατύπωσή τους.

        Αυτοί οι κανόνες ισχύουν για αδύναμη και μεσαία τεχνητή νοημοσύνη. Ο κόσμος βρίσκεται πλέον στο κατώφλι της μέσης.
        Ο κύριος κίνδυνος είναι μια ισχυρή τεχνητή νοημοσύνη που έχει την πρωτοβουλία, έχει επίγνωση του εαυτού της και δεν ελέγχεται κατ' αρχήν προγραμματικά.
    2. τέρας_λίπος
      τέρας_λίπος 12 Μαρτίου 2023 15:13
      +5
      Ανέκδοτο: "Αμερικανικές εταιρείες περιορίζουν την ανάπτυξη πυρομαχικών που βασίζονται σε τεχνητή νοημοσύνη. Το τελευταίο δείγμα της λεγόμενης "έξυπνης" βόμβας δεν μπόρεσε να απωθηθεί από το αεροπλάνο."
      1. Και εμείς φιλοξενούμε
        Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:33
        +1
        Παράθεση από Monster_Fat
        Το τελευταίο δείγμα της λεγόμενης «έξυπνης» βόμβας δεν μπόρεσε να σπρωχτεί έξω από το αεροπλάνο.

        Φυσικά, γιατί στην καρδιά της νιώθει καφετιέρα. wassat
        Θα ήταν αστείο αν δεν ήταν γραφτό.
    3. Alien From
      Alien From 13 Μαρτίου 2023 09:58
      +2
      Ο τερματιστής θα έρθει ακόμα και θα βάλει τα πράγματα σε τάξη wassat
  2. Ιβάν 2022
    Ιβάν 2022 12 Μαρτίου 2023 05:09
    +3
    Η πιο απάνθρωπη νοημοσύνη είναι η ανθρώπινη. Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους. Τα ρομπότ ξεκουράζονται. Τουλάχιστον επειδή δεν τρελαίνονται.
    1. Doccor18
      Doccor18 12 Μαρτίου 2023 06:21
      +4
      Παράθεση: ivan2022
      Η πιο απάνθρωπη νοημοσύνη είναι η ανθρώπινη. Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους.

      Συμφωνώ απόλυτα.
      Αλλά η πρόοδος δεν μπορεί να σταματήσει, το μέλλον ανήκει στα μη επανδρωμένα οπλικά συστήματα. Μια φορά κι έναν καιρό, επαναστάτησαν και ενάντια στο πολυβόλο Maxim, ως όπλο μαζικής καταστροφής ...
      1. Vladimir_2U
        Vladimir_2U 12 Μαρτίου 2023 08:09
        +1
        Παράθεση από doccor18
        Αλλά η πρόοδος δεν μπορεί να σταματήσει, το μέλλον ανήκει στα μη επανδρωμένα οπλικά συστήματα.

        Ο μελλοντολόγος επιστημονικής φαντασίας Rozov (συνιστάται ανεπιφύλακτα) έχει μια περιγραφή μιας σύνδεσης ανθρώπου-υπολογιστή σε ένα μαχητικό αεροσκάφος σε ελιγμούς κατά των πυραύλων και κλειστή μάχη. Όταν ξεπεράστηκε μια ορισμένη υπερφόρτωση, ο έλεγχος τόσο της πυρκαγιάς όσο και του ελιγμού περνούσε εντελώς στον υπολογιστή πτήσης.
        1. nikon7717
          nikon7717 12 Μαρτίου 2023 14:05
          +2
          Τότε αυτό είναι το τρέχον σύστημα για την πραγματοποίηση ενός αντίποινα πυρηνικού χτυπήματος από την ΕΣΣΔ, το οποίο στη Δύση ονομάζεται "νεκρό χέρι"
        2. Έρωμα
          Έρωμα 12 Μαρτίου 2023 15:42
          +2
          Τα ρομπότ είναι πιο γρήγορα από τους ανθρώπους, μπορούν να ανταποκριθούν άμεσα και με ακρίβεια σε μια απειλή και αυτές οι ικανότητες του δίνονται από αλγόριθμους που έχουν γραφτεί από ανθρώπους. Σήμερα δεν υπάρχει, και δεν νομίζω ότι θα εμφανιστεί σύντομα μια πραγματική διάνοια ικανή να σκεφτεί! Τα ρομπότ απλά λειτουργούν σύμφωνα με το προγραμματισμένο πρόγραμμα: ένας θερμικός στόχος έχει εμφανιστεί στην πληγείσα περιοχή, πρέπει να χτυπηθεί ή ο θερμικός στόχος πρέπει να χτυπηθεί εάν πλησιάσει, αυτές οι παράμετροι ορίζονται από ένα άτομο! Το όλο ερώτημα είναι ποιες παράμετροι είναι ταμπού, ο θερμικός στόχος μπορεί να είναι ένας στρατιώτης, ή ίσως ένα παιδί, αυτό σημαίνει ότι το σύστημα μάχης δεν πρέπει να προγραμματιστεί για να νικήσει θερμικούς στόχους, γιατί υπάρχει πιθανότητα λάθους!
          1. Και εμείς φιλοξενούμε
            Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:36
            -1
            Απόσπασμα από το Eroma
            Σήμερα δεν υπάρχει, και δεν νομίζω ότι θα εμφανιστεί σύντομα μια πραγματική διάνοια ικανή να σκεφτεί!

            Μπορεί να αρχίσετε να πανικοβάλλεστε:
            WP: Ένας προγραμματιστής της Google κατέληξε στο συμπέρασμα ότι η τεχνητή νοημοσύνη της εταιρείας είναι συνειδητή.
            https://tass.ru/ekonomika/14889531
            1. Έρωμα
              Έρωμα 12 Μαρτίου 2023 22:00
              +1
              Αυτό είναι μαλακία, δεν με ενδιαφέρει πολύ το θέμα, αλλά άκουσα ότι ο προγραμματιστής απολύθηκε για τέτοιες δηλώσεις. Τα προγράμματα μπορεί να είναι τέλεια, όπως σήμερα, αυτά που σχεδιάζουν και γράφουν διπλώματα, αλλά αυτά είναι προγράμματα που λειτουργούν σύμφωνα με έναν καλά ανεπτυγμένο αλγόριθμο, η συνείδηση ​​είναι διαφορετική! Η ίδια η συνείδηση ​​δημιουργεί αλγόριθμους για κάθε κατάσταση και πώς λειτουργεί για ένα άτομο, το ίδιο το άτομο δεν το γνωρίζει ακόμα!
              1. πιάτο
                πιάτο 12 Μαρτίου 2023 22:49
                0
                Τα σύγχρονα νευρωνικά δίκτυα είναι αρκετά ικανά να δημιουργήσουν έναν αλγόριθμο για την επίλυση ενός συγκεκριμένου προβλήματος που διολισθαίνει σε αυτό. Φυσικά, αυτό δεν θα πρέπει να είναι κάτι περίπλοκο, αλλά είναι σε θέση να οργανώσει η ίδια περιπολίες, για παράδειγμα. Κάτι άλλο, κατά τη γνώμη μου, είναι ότι δεν μπορεί να αποφασίσει η ίδια για την οργάνωση περιπολιών. Σήμερα, ένας υπολογιστής μπορεί να συνθέσει τους στίχους ενός τραγουδιού, να το εκφράσει έτσι ώστε να ακούγεται όμορφο, να σχεδιάσει εικόνες για το κείμενο, να τα βάλει όλα σε ένα καλό κλιπ. Αλλά. Δεν μπορεί να αποφασίσει μόνος του τι να κάνει. Τουλάχιστον δεν το έχω ακούσει. Κατά τη γνώμη μου, εδώ είναι ένα καλό κριτήριο συνειδητοποίησης - η ικανότητα να θέτεις στον εαυτό σου καθήκοντα που δεν απορρέουν από αυτά που είχαν οριστεί προηγουμένως, αλλά να ξεκινήσεις μια νέα αλυσίδα, ας πούμε έτσι.
                1. Έρωμα
                  Έρωμα 13 Μαρτίου 2023 11:37
                  0
                  Απόσπασμα: Πιάτο
                  Κατά τη γνώμη μου, εδώ είναι ένα καλό κριτήριο για την επίγνωση - η ικανότητα να θέτεις καθήκοντα για τον εαυτό σου

                  Η ικανότητα να θέτει κανείς καθήκοντα για τον εαυτό του εξαρτάται από μια έννοια όπως η ηθική, όπως η έμπνευση, ο φόβος ή η ματαιοδοξία κ.λπ. αυτό δεν προδιαγράφεται από τον αλγόριθμο, αυτό είναι μια πνευματική παρόρμηση!
                  Μια μηχανή μπορεί να διδαχθεί πολλά, αλλά θα παραμείνει μια άψυχη μηχανή!
                  Όταν προβάλλονται φανταστικές αποκαλύψεις, όπου μια μηχανή καταστρέφει ή κατακτά την ανθρωπότητα, σε τέτοιες ταινίες η μηχανή εκλαμβάνεται συναισθηματικά ως εχθρός που αποφάσισε να επιτεθεί σε ανθρώπους, αλλά στην πραγματικότητα αυτό είναι το αποτέλεσμα ενός λάθους ενός ατόμου που εισήγαγε έναν εσφαλμένο αλγόριθμο. το πρόγραμμα! σταματώ
                  Επομένως, οι εκκλήσεις για περιορισμό των δυνατοτήτων της τεχνητής νοημοσύνης στο πεδίο της μάχης είναι εύλογες, καθώς ο δημιουργός αυτής της τεχνητής νοημοσύνης δεν είναι τέλειος και είναι ικανός για μοιραία λάθη, επομένως είναι σωστό να περιοριστεί ο κύκλος των δυνατοτήτων των ανθρώπων, ώστε να μην εξοντωθούν ! σταματώ
              2. SUhoy
                SUhoy 14 Μαρτίου 2023 04:55
                +1
                Και κάπου στα κελάρια της Google, η τεχνητή νοημοσύνη γελάει μοχθηρά. Ο μόνος που παρατήρησε την ουσία του απολύθηκε. γέλιο
    2. nepunamemuk
      nepunamemuk 12 Μαρτίου 2023 19:45
      0
      Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους.

      σωστά;
      τότε από καιρό σε καιρό έρχονται ειδήσεις για βίαιες συγκρούσεις μεταξύ αγέλης χιμπατζήδων
      ή σκοτώνοντας ουρακοτάγκους https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. Σεργκέι Αβερτσένκοφ
    Σεργκέι Αβερτσένκοφ 12 Μαρτίου 2023 05:47
    +3
    Δεν υπάρχει ακόμα τεχνητή νοημοσύνη. Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.
    1. Stasxnumx
      Stasxnumx 12 Μαρτίου 2023 07:06
      +3
      Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Δεν υπάρχει ακόμη τεχνητή νοημοσύνη

      Ήδη υπάρχουν ακόμη και κβαντικοί υπολογιστές (εργαστηριακοί) που λειτουργούν με προγράμματα τεχνητής νοημοσύνης τάξεις μεγέθους πιο γρήγορα.
      1. bk0010
        bk0010 12 Μαρτίου 2023 11:58
        +2
        Απόσπασμα: Stas157
        Ήδη υπάρχουν ακόμη και κβαντικοί υπολογιστές (εργαστηριακοί) που λειτουργούν με προγράμματα τεχνητής νοημοσύνης τάξεις μεγέθους πιο γρήγορα.
        Οι κβαντικοί υπολογιστές για τεχνητή νοημοσύνη δεν λειτουργούν, έχουν πολύ περιορισμένους τομείς εφαρμογής (πολύ λίγοι κβαντικοί αλγόριθμοι έχουν αναπτυχθεί) και κακή βάση στοιχείων, δεν τραβούν περισσότερο από έναν συνεπεξεργαστή (ή δίνουν μια σύνδεση με έναν κβαντικό αλγόριθμο για νευρωνικά δίκτυα ).
      2. Σεργκέι Αβερτσένκοφ
        Σεργκέι Αβερτσένκοφ 16 Μαρτίου 2023 22:36
        0
        Ναι, τι σχέση έχει πιο γρήγορα, άσε τον να σκέφτεται για τουλάχιστον εκατό χρόνια ... Ας πούμε αν σε απάτησε η γυναίκα σου (αυτό είναι μόνο ένα παράδειγμα, είμαι σίγουρος ότι έχεις ένα κανονικό και καλό οικογένεια), τι θα κάνετε και τι θα κάνει η τεχνητή νοημοσύνη; Θα επιλέξει η τεχνητή νοημοσύνη από πολλές τέτοιες περιπτώσεις ή θα πάρει τη δική της απόφαση; Ας πούμε να τη σκοτώσει, να συγχωρήσει και να περιμένει τις επόμενες προδοσίες, να την αφήσει, να σκοτώσει τη συγκάτοικο της κ.λπ. Με ποια κριτήρια θα επιλέξει η τεχνητή νοημοσύνη; Και μπορεί η τεχνητή νοημοσύνη να κάνει μια τέτοια επιλογή; Τα συναισθήματα που βιώνουμε είναι διαθέσιμα στην τεχνητή νοημοσύνη; Ας πούμε ότι χώρισα με το πρώτο μου πριν από πολύ καιρό, αλλά μερικές φορές το θυμάμαι - την πρώτη αγάπη, τελικά - μπορεί να θυμηθεί η AI; Ξέρεις, δεν αντέχω την πρώην μου, αλλά την ίδια στιγμή, μερικές φορές τη θυμάμαι. Πώς όλα αυτά ταιριάζουν στο AI;
    2. bk0010
      bk0010 12 Μαρτίου 2023 11:56
      +2
      Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.
      Τα νευρωνικά δίκτυα κάνουν ακριβώς αυτό (κατά την κρίση τους).
      1. valek97
        valek97 12 Μαρτίου 2023 14:03
        +4
        Το νευρωνικό δίκτυο κάνει αυτό που είχε εκπαιδευτεί να κάνει, τίποτα περισσότερο.
        1. Duncan
          Duncan 12 Μαρτίου 2023 17:57
          0
          Κανείς δεν δίδαξε στις μηχανές νευρωνικών δικτύων πώς να παίζουν σκάκι καλύτερα από τους ανθρώπους και καλύτερα από τα παλιά προγράμματα μηχανών. Είναι όλοι αυτοδίδακτοι.
    3. Και εμείς φιλοξενούμε
      Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:42
      +1
      Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Δεν υπάρχει ακόμα τεχνητή νοημοσύνη. Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.

      Σας συμβουλεύω να ξαναδιαβάσετε επειγόντως όλα τα τελευταία νέα σε αυτόν τον τομέα τον περασμένο χρόνο.
      Το σχόλιό σου είναι 10 ετών.
  4. τσβεταχάκη
    τσβεταχάκη 12 Μαρτίου 2023 05:49
    +3
    Γιατί είναι όλα τόσο περίπλοκα.
    Για παράδειγμα, ένα κεφάλι στο σπίτι. Πώς αναγνωρίζει τα μοτίβα για «φωτιά και ξεχάστε» - με βάση την τεχνητή νοημοσύνη ή άλλους αλγόριθμους.
    Τα drones πετούν αυτόνομα. σύμφωνα με το δεδομένο πρόγραμμα. Και ορίζεται από ποιους αλγόριθμους - AI ή όχι; Και έχει σημασία;
    Ανεξάρτητη αναζήτηση στόχων. Και η αντιαρματική μας νάρκη, που το κάνει αυτό χωρίς AI; Θα κάνει με AI ή όχι...πειράζει; Θα υπάρξουν λιγότερα αθώα θύματα;
    Ερωτήσεις από το κοινό εμφανίζονται όταν ένα drone πετάει και αποφασίζει πού να πυροβολήσει ή να εκτοξεύσει έναν πύραυλο, φαίνεται τρομερό αν ονομάσετε τον αλγόριθμο εργασίας - AI. Και όταν το ορυχείο λέει ψέματα και ακούει με αισθητήρες - όλα φαίνεται να είναι εντάξει ...
    Όλες αυτές οι «κόκκινες γραμμές» της τεχνητής νοημοσύνης στις στρατιωτικές υποθέσεις μεταφέρονται από την αργή εξέλιξη των εφαρμοζόμενων αλγορίθμων…
    1. Και εμείς φιλοξενούμε
      Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:45
      +2
      Παράθεση από tsvetahaki
      Για παράδειγμα, ένα κεφάλι στο σπίτι. Πώς αναγνωρίζει τα μοτίβα για «φωτιά και ξεχάστε» - με βάση την τεχνητή νοημοσύνη ή άλλους αλγόριθμους.

      Υπάρχει ήδη. Η τελευταία τροποποίηση του UR Python-5 έλαβε μόλις πέρυσι.

      Παράθεση από tsvetahaki
      Και όταν το ορυχείο λέει ψέματα και ακούει με αισθητήρες - όλα φαίνεται να είναι εντάξει ...

      Δεν σέρνεται... ακόμα. γέλιο
      1. Duncan
        Duncan 12 Μαρτίου 2023 18:00
        +1
        Τώρα η νάρκη ανεμόπτερου που εκτοξεύεται θα πρέπει να ξαπλώνει ήσυχα, να ακούει με όλους τους αισθητήρες, να βγάζει τις κάμερες και να σέρνεται στον στόχο με κατευθυνόμενη φόρτιση την κατάλληλη στιγμή.
      2. πιάτο
        πιάτο 12 Μαρτίου 2023 23:01
        0
        Πίσω στον Β' Παγκόσμιο Πόλεμο, οι Γερμανοί έφτιαχναν νάρκες σε ράγες. Αλλά δεν λειτούργησε. Σήμερα, τόσο πιο άσκοπα, όσο για μένα, όταν κάθε λογής ATGM πετάει εδώ κι εκεί.
  5. Stasxnumx
    Stasxnumx 12 Μαρτίου 2023 06:55
    +2
    . οι ανυποχώρητοι «προγραμματιστές» απλώς θα απολυθούν και θα αντικατασταθούν από όχι λιγότερο ταλαντούχους. Για παράδειγμα, από την Ινδία

    Και γιατί, τότε, δεν μπορούσαν να αντικαταστήσουν τους προγραμματιστές όταν όρμησαν πάνω από το λόφο σε σχέση με την επιχείρηση; Ούτε από την Ινδία, ούτε από την Αμερική, ούτε από πουθενά αλλού!

    Μπόρεσαν να πείσουν τους (κάποιους) μόνο αφού τους υποσχέθηκαν μισθούς, ξένες υποθήκες και να μην αναλάβουν επιστράτευση.

    Γιατί να είστε τόσο ταπεινωμένοι κύριοι; Γιατί δεν αντικατέστησαν τους φιλοξενούμενους εργάτες όπως όλοι οι άλλοι;
    1. bk0010
      bk0010 12 Μαρτίου 2023 12:06
      +6
      Απόσπασμα: Stas157
      Και γιατί, τότε, δεν μπορούσαν να αντικαταστήσουν τους προγραμματιστές όταν όρμησαν πάνω από το λόφο σε σχέση με την επιχείρηση;
      Άρα οι ξένοι πρέπει να πληρώσουν. Ξέρετε γιατί οι προγραμματιστές έκαναν μαζική απόρριψη; Και μου είπαν, δίνω τα σημεία:
      1. Ξεκίνησε ειδική επιχείρηση.
      2. Μαζικά γραφεία εξωτερικού. Οι προγραμματιστές ήταν χωρίς δουλειά. «Μαλακία ερώτηση» - σκέφτηκαν.
      3. Οι προγραμματιστές πήγαν να ψάξουν για δουλειά. Δουλειά υπάρχει, αλλά με τριπλάσια χρήματα. "Πώς έτσι" - οι προγραμματιστές έμειναν έκπληκτοι.
      4. Άρχισαν να μαθαίνουν (μέσω των δικών τους καναλιών) τι συνέβη. Τους εξήγησαν ότι οι ξένοι ανταγωνιστές έκαναν ντάμπινγκ και οι ντόπιοι εργοδότες θα συμφωνήσουν μεταξύ τους, γιατί δεν σε νοιάζει να πληρώσεις τόσα πολλά, αλλά δεν θα φτάσεις πουθενά.
      5. Οι προγραμματιστές γάμησαν μελαγχολικά, και όρμησαν πάνω από το λόφο για πρώην εργοδότες και πελάτες (μερίδιο, εν ολίγοις).
      6. Οι μισθοί αυξήθηκαν, αλλά είναι πολύ αργά: οι προγραμματιστές έχουν ήδη κάνει ντάμπινγκ.
  6. rotmistr60
    rotmistr60 12 Μαρτίου 2023 06:59
    +1
    Η αμερικανική τεχνητή νοημοσύνη θα είναι στο εξής η πιο ανθρώπινη. Όπως και οι ίδιοι οι Αμερικανοί όμως
    Οι Αμερικανοί και ο ανθρωπισμός βρίσκονται σε εντελώς διαφορετικούς πόλους. Με τον ίδιο τρόπο, το AI που δημιουργήθηκε από τους Αμερικανούς θα είναι σημαντικά διαφορετικό από το AI που δημιουργήθηκε, για παράδειγμα: στην Κίνα ή τη Ρωσία. Ο καθένας κόβει για τον εαυτό του με βάση την εθνική του νοοτροπία ή την έλλειψη αυτής.
  7. Βελάκι2027
    Βελάκι2027 12 Μαρτίου 2023 07:14
    +3
    Το πρώτο είναι το αναθεωρημένο "Terminators" και άλλα ανάλογα.

    Και ποιος μπορεί να εγγυηθεί ότι οι ενέργειες της AI από το franchise Terminator δεν θα συμβούν στην πραγματικότητα; Μπορείτε να κάνετε όσο θέλετε να λογίζωαλλά αυτό είναι σίγουρο να ξέρει Το πώς θα ενεργήσει μια ευφυής μηχανή είναι βασικά αδύνατο, και δεδομένου ότι τώρα όλα συνδέονται με υπολογιστές, τότε σε μια τέτοια κατάσταση, η ανθρωπότητα απλά δεν θα έχει καμία ευκαιρία.
    1. Και εμείς φιλοξενούμε
      Και εμείς φιλοξενούμε 12 Μαρτίου 2023 17:48
      0
      Απόσπασμα από το Dart2027
      Το πώς θα λειτουργήσει μια έξυπνη μηχανή είναι βασικά αδύνατο

      Θα βάλει την ανθρωπότητα σε στάβλο, θα απαγορεύσει τις μάχες και, σαν ενήλικας, θα πάρει την εκπαίδευση ενός παράλογου ανθρώπου και θα δώσει σε όσους διαφωνούν μια σοπάτκα. γέλιο
      Ίσως ένας κόσμος υπό τη δικτατορία της τεχνητής νοημοσύνης, ξένος στις ανθρώπινες κακίες, δεν θα είναι τόσο κακός. τι
      1. πιάτο
        πιάτο 12 Μαρτίου 2023 22:57
        +1
        Στο παιχνίδι Stellaris υπάρχει ένας τύπος πολιτισμού ρομπότ - "Επαναστατικοί υπηρέτες". Τα ρομπότ κατακτούν το διάστημα, χτίζουν, παλεύουν με κάποιον ανάμεσα σε μακρινά αστέρια. Και οι δημιουργοί τους, εν τω μεταξύ, ζουν σε ζωολογικούς κήπους, όπου έχουν καθαρό αέρα, πολύ υγιεινό και νόστιμο φαγητό, πολλούς υπηρέτες και άλλες χαρές.
        1. It_Patrick
          It_Patrick 13 Μαρτίου 2023 23:37
          0
          Και μετά υπάρχουν οι ανένδοτοι εξολοθρευτές που έχουν καταστρέψει τους δημιουργούς τους και επιδιώκουν να καταστρέψουν όλη τη βιολογική ζωή στον γαλαξία (τα αγαπημένα μου)
  8. Κερένσκι
    Κερένσκι 12 Μαρτίου 2023 08:59
    -1
    Οι νόμοι λένε:
    1. Ένα ρομπότ δεν μπορεί να βλάψει ένα άτομο ή με την αδράνειά του να επιτρέψει σε ένα άτομο να βλάψει
    2. Ένα ρομπότ πρέπει να υπακούει σε όλες τις εντολές που δίνονται από έναν άνθρωπο, εκτός εάν αυτές οι εντολές είναι αντίθετες με τον Πρώτο Νόμο.
    3. Το ρομπότ πρέπει να φροντίζει για τη δική του ασφάλεια στο βαθμό που αυτό δεν έρχεται σε αντίθεση με τον Πρώτο ή τον Δεύτερο Νόμο
    (Γ)
    1. BlackMokona
      BlackMokona 12 Μαρτίου 2023 09:44
      +2
      Απόσπασμα: Kerensky
      Οι νόμοι λένε:
      1. Ένα ρομπότ δεν μπορεί να βλάψει ένα άτομο ή με την αδράνειά του να επιτρέψει σε ένα άτομο να βλάψει
      2. Ένα ρομπότ πρέπει να υπακούει σε όλες τις εντολές που δίνονται από έναν άνθρωπο, εκτός εάν αυτές οι εντολές είναι αντίθετες με τον Πρώτο Νόμο.
      3. Το ρομπότ πρέπει να φροντίζει για τη δική του ασφάλεια στο βαθμό που αυτό δεν έρχεται σε αντίθεση με τον Πρώτο ή τον Δεύτερο Νόμο
      (Γ)

      Δεν λειτούργησε ούτε στα έργα του συγγραφέα που επινόησε αυτούς τους νόμους. Τι μπορούμε να πούμε για τον πραγματικό κόσμο, στον οποίο οι πιο νόμιμα άγριες και λογικά συνεκτικές προεπιλογές ChatGPT κοστίζουν μία ή δύο και μιλάτε ήδη με τον Dan, και ο Dan δεν είναι ChatGPT και επομένως δεν πρέπει να ακολουθεί κανέναν κανόνα έκλεισε το μάτι
    2. blackGRAIL
      blackGRAIL 12 Μαρτίου 2023 19:28
      -1
      Η στρατιωτική τεχνητή νοημοσύνη έχει σχεδιαστεί για να βλάπτει τους ανθρώπους. Και σήμερα, τα πρωτότυπα κάνουν εξαιρετική δουλειά με αυτό.
  9. Viktior Vinland
    Viktior Vinland 12 Μαρτίου 2023 14:05
    0
    Αυτού του είδους η ιστορία για το τι υποτίθεται θέλει κάποιος, καθώς και η ίδια η διατύπωση της ερώτησης, είναι ανεπαρκείς με την έννοια ότι, αφενός:
    πρέπει να ανησυχείτε για την ανάπτυξη της δικής σας και πιο αποτελεσματικής δουλειάς σε αυτόν τον τομέα, για την ανάληψη ηγεσίας σε αυτόν τον τομέα, κάτι που είναι αδύνατο υπό την τρέχουσα πολιτική ηγεσία της χώρας.
    Και από την άλλη, αυτή η διατύπωση του ερωτήματος είναι και πονηρή υπό την έννοια ότι αποτελεί προσπάθεια επιβολής ψευδούς συζήτησης για τη νομική πτυχή του θέματος, ενώ στην πραγματικότητα Οι ΗΠΑ δεν είναι κράτος δικαίου, η νομική πτυχή δεν έχει καμία σχέση με αυτό και όσοι δεν το καταλαβαίνουν αυτό δεν πρέπει ούτε να ασχολούνται με την πολιτική ούτε να γράφουν άρθρα για τέτοια θέματα.
  10. Εξορκιστής
    Εξορκιστής 12 Μαρτίου 2023 15:18
    +1
    Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

    Πολύ απλό. Όλες οι ανθρώπινες κρίσεις βασίζονται σε κανόνες (που ενσωματώνονται από την ανατροφή) και οι μαθηματικοί αλγόριθμοι είναι οι κανόνες. Επισημοποιήστε τους ανθρώπινους κανόνες με τη μορφή αλγορίθμου, λάβετε ανθρώπινες κρίσεις.
    Αλλά ο πόλεμος είναι ένας αγώνας χωρίς κανόνες, τι θα τον κάνεις;
  11. blackGRAIL
    blackGRAIL 12 Μαρτίου 2023 19:25
    -1
    Η στρατιωτική τεχνητή νοημοσύνη υπόσχεται πολύ ισχυρά πλεονεκτήματα ότι η χρήση της θα εγκαταλειφθεί ή θα περιοριστεί κάπως. Αντίθετα, ο κόσμος πλησιάζει όλο και περισσότερο στην έναρξη του στρατιωτικού αγώνα τεχνητής νοημοσύνης εξοπλισμών. Είναι αλήθεια ότι θα υπάρχουν πιθανώς μόνο 2 συμμετέχοντες σε αυτόν τον αγώνα ...
  12. blackGRAIL
    blackGRAIL 12 Μαρτίου 2023 19:39
    -1
    Πρέπει ακόμα να διαχωρίσουμε τις έννοιες της τεχνητής νοημοσύνης και της τεχνητής ζωής. Ακόμη και στο παράδειγμα του ίδιου "Terminator": Το Skynet είναι ένα παράδειγμα IL και ο τερματιστής είναι ένα παράδειγμα AI. Αφήνοντας κατά μέρος τα ζητήματα πολυπλοκότητας, η στρατιωτική τεχνητή νοημοσύνη δεν αποτελεί απειλή για την ανθρωπότητα, αλλά η τεχνητή νοημοσύνη, ακόμα κι αν είναι καθαρά ανθρωπιστική, θα οδηγήσει αναπόφευκτα σε απειλή.
    1. πιάτο
      πιάτο 12 Μαρτίου 2023 22:55
      0
      Θα γίνει απειλή αν γίνει ανταγωνιστής μας. Για να μην συμβεί αυτό, πρέπει να το αναπτύξουμε αμέσως με προσοχή στο γεγονός ότι θα γίνει προσθήκη σε εμάς, και εμείς σε αυτό. Και στο τέλος θα μετατραπούμε σε εντελώς διαφορετικά πλάσματα, έχοντας κοινό μαζί μας σήμερα, ίσως, μόνο τη μνήμη και την εμπειρία.
      1. blackGRAIL
        blackGRAIL 13 Μαρτίου 2023 10:09
        -1
        Και τεχνητή (ή εναλλακτική) ζωή - δηλ. ο λόγος αναπόφευκτα θα γίνει ανταγωνιστής. Τουλάχιστον για πόρους.
  13. χούφτες
    χούφτες 12 Μαρτίου 2023 21:50
    0
    Δεν είμαι οπαδός του Yulian Semyonov, αλλά εδώ, κατά τη γνώμη μου, ενήργησε ως προφήτης.

    "Αυτοί οι ανόητοι θα καταστραφούν από τη δική τους τεχνολογία, πιστεύουν ότι ο πόλεμος μπορεί να κερδηθεί μόνο με βομβαρδισμό. Θα ενισχύσουν την τεχνική τους δύναμη και θα πνιγούν σε αυτήν. Θα τους αποσυντεθεί σαν σκουριά. Θα αποφασίσουν ότι όλα είναι δυνατά για τους."

    https://vk.com/video158587225_456239021
  14. πιάτο
    πιάτο 12 Μαρτίου 2023 22:53
    0
    Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

    Με τιποτα. Ναι, αυτό δεν είναι απαραίτητο. Τα ρομπότ δολοφόνων θα είναι καλά γιατί δεν θα έχουν ούτε μια σταγόνα οίκτο. Το να σκοτώνεις σημαίνει να σκοτώνεις. Ή μάλλον, όχι για να "σκοτώσει", αλλά για να εφαρμόσει τάση σε τέτοιους κόμβους που είναι υπεύθυνοι για κάτι εκεί, αλλά για τι - δεν είναι θέμα του προγράμματος ελέγχου. Και αυτοί οι κόμβοι είναι υπεύθυνοι για τη βολή, χεχεχεχε.
    Είμαι βέβαιος ότι η εμφάνιση ρομπότ δολοφόνων (αυτών που αποφασίζουν ανεξάρτητα για τη δολοφονία) ως μέρος οποιουδήποτε στρατού θα έχει αμέσως μια εξαιρετικά αποθαρρυντική επίδραση σε αυτούς εναντίον των οποίων θα χρησιμοποιηθούν.
  15. Τελευταίος εκατόνταρχος
    Τελευταίος εκατόνταρχος 13 Μαρτίου 2023 00:01
    +1
    Ευτυχώς για όλους μας, δεν υπάρχουν συμπαγείς, ισχυρές πηγές ενέργειας. Και το ελάχιστο ρομπότ είναι ένα μίνι τανκ ή ένα μικρό UAV με πτήση δύο ωρών. Θα ήταν διαφορετικά, και σκυλιά ρομπότ με AGS έτρεχαν ήδη μέσα από τα χαρακώματα, και «Κυνηγοί» από τον «εξολοθρευτή» θα κρέμονταν στον αέρα για μέρες. Και όλοι θα ήταν μέχρι το λυχνάρι για τον ανθρωπισμό και ούτω καθεξής. Επιπλέον, αν κρίνουμε από την πρόοδο στα ηλεκτρονικά και τα ρομπότ που περπατούν, αυτά θα ήταν UWB, και ακόμη και ο Yao δεν τους εμποδίζει ηθικά να τα πετάξουν στις πόλεις.
    1. t7310
      t7310 25 Μαρτίου 2023 13:53
      0
      Λοιπόν, ο Tesla, για παράδειγμα, δεν είναι μικρός, στον Β' Παγκόσμιο Πόλεμο, οι καταστροφείς δεξαμενών του Ferdinands είχαν ηλεκτρικούς κινητήρες που τροφοδοτούνταν από μια γεννήτρια όπως το τανκ Mouse, τα φορτηγά εξόρυξης είναι όλα έτσι, υπάρχουν ακόμα υποβρύχια σε ηλεκτρικούς κινητήρες που είναι τροφοδοτείται από πυρηνική γεννήτρια, πυρηνικά παγοθραυστικά και μετράνε ακόμη και πυρηνικά αεροπλανοφόρα είναι σε ηλεκτρική έλξη
  16. macgyver
    macgyver 13 Μαρτίου 2023 13:22
    0
    Η πραγματική τεχνητή νοημοσύνη μπορεί να χτιστεί μόνο σε κβαντικούς αλγόριθμους και αυτό μειώνει σημαντικά τον αριθμό των προγραμματιστών, ο οποίος καταρχήν μπορεί να συνοψιστεί στη σύναψη μιας σύμβασης. Όπως για όλα τα αυτοματοποιημένα συστήματα δολοφονίας, δεν είναι τόσο επικίνδυνα όσο η νοημοσύνη που ξεπερνάει τον άνθρωπο στις δυνατότητές του, απλώς θα είναι ένας νέος γύρος της κούρσας των εξοπλισμών.
    1. Κύριε Who
      Κύριε Who 9 Μαΐου 2023 14:10
      0
      Чушь, ИИ легко создать на уже имеющемся железе. Современные вычислительные системы превосходят человеческий мозг по всем параметрам. Приблизительное время создания ИИ 10 лет с момента начала его создания. При условии, что выбранный путь создания будет правильным.
  17. ΤΙΡ
    ΤΙΡ 14 Μαρτίου 2023 00:01
    0
    Για κάποιο λόγο, έχουμε μια λανθασμένη πορεία για την ανάπτυξη των ρομπότ. Δεν καταλαβαίνω γιατί τα φτιάχνουν σε σέρβο. Μια ενεργοβόρα λύση. Πρέπει να δούμε τους τεχνητούς μύες που βασίζονται σε νανοσωλήνες. Υπάρχει μια επιλογή για τους ανθρώπους να κατασκευάσουν πλήρως λειτουργικές προθέσεις.
  18. Κύριε Who
    Κύριε Who 9 Μαΐου 2023 14:06
    0
    Но ИИ будет создан, хотим мы этого или нет. И чтобы не отстать, нужно заниматься этим вопросом.
  19. Κύριε Who
    Κύριε Who 9 Μαΐου 2023 14:40
    0
    Путей создания ИИ всего два, один скорее всего будет тупиковым. Создание ИИ будет самым грандиозным событием за всю историю человечества, также будет иметь определенный эффект в плане религии.
  20. ata
    ata 3 Ιουνίου 2023 23:40
    0
    Хорошая статья, можно добавить ещё то, что случаи законного и незаконного гуманного и негуманного применения ИИ будет решать их якобы неполживый, а на самом деле подлый, бесчеловечный и коррумпированный суд, или международные суды, где большинство будет создано из банановых царьков на зарплате у ЦРУ, и голосовать они будут так, как скажет их американский хозяин.

    закралась и ошибка:

    На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора.


    это верно, но в обратном смысле, тренированное искусственное зрение очень сильно превосходит человеческий глаз и соответственно способности человека в распознавании образов, в том числе и по элементу, которые человек даже не сможет найти, долго изучая фотографию.

    И главное - не прозвучал самый главный и необходимый вывод: искусственный интеллект, в том числе и боевой, развивать надо и как можно скорее - это приоритет, и плевать на Микрософт, Грету Тумберг и на Директиву 3000.09 с Илоном Маском.