Σημειώσεις του ανθρώπινου μυαλού: Οι Αμερικανοί θέλουν να αλλάξουν τη στρατιωτική τεχνητή νοημοσύνη

55
Σημειώσεις του ανθρώπινου μυαλού: Οι Αμερικανοί θέλουν να αλλάξουν τη στρατιωτική τεχνητή νοημοσύνη
Πηγή: vgtimes.ru


Ακυρώνεται η ψηφιακή απανθρωποποίηση;


Πρώτον, μια προειδοποίηση από στρατιωτικούς μαχητές AI:



«Οι μηχανές δεν μας βλέπουν ως ανθρώπους, για αυτούς ένα άτομο είναι απλώς ένα κομμάτι κώδικα που πρέπει να επεξεργαστεί και να ταξινομηθεί. Από τα έξυπνα σπίτια στη χρήση σκύλων-ρομπότ οι αστυνομικοί, οι τεχνολογίες τεχνητής νοημοσύνης και η αυτοματοποιημένη λήψη αποφάσεων άρχισαν να παίζουν μεγάλο ρόλο στη ζωή μας. Στο ακραίο άκρο της σειράς των ψηφιακών συσκευών βρίσκονται τα ρομπότ δολοφόνοι. Εάν επιτρέψουμε τη σχετική απανθρωποποίηση, σύντομα θα αγωνιστούμε για να προστατευτούμε από αποφάσεις που λαμβάνονται από μηχανή σε άλλους τομείς της ζωής μας. Πρέπει πρώτα να απαγορεύσουμε τα αυτόνομα συστήματα όπλαγια να αποφευχθεί η διολίσθηση στην ψηφιακή απανθρωποποίηση».

Οι ειρηνιστές που απαιτούν πάγωμα όλων των εργασιών για την καταπολέμηση της τεχνητής νοημοσύνης χωρίζονται σε δύο τύπους. Το πρώτο είναι το αναθεωρημένο "Terminators" και άλλα ανάλογα. Το δεύτερο - αξιολόγηση του μέλλοντος σύμφωνα με τις σύγχρονες δυνατότητες των ρομπότ μάχης. Πρώτα απ 'όλα, φτερωτά μη επανδρωμένα οχήματα εξοπλισμένα με συστήματα κρούσης.

Υπάρχουν αρκετά επεισόδια εσφαλμένης ή εσκεμμένης καταστροφής αμάχων από drones. Στη Μέση Ανατολή, Αμερικανός κηφήνες κατέστρεψε περισσότερες από μία γαμήλια τελετή. Οι χειριστές ιπτάμενων ρομπότ αναγνώρισαν τον εορταστικό πυροβολισμό αέρος-αέρος ως ένδειξη των πυροβολισμών των ανταρτών. Εάν ένα ειδικά εκπαιδευμένο άτομο δεν είναι σε θέση να προσδιορίσει τις λεπτομέρειες του στόχου από αρκετές εκατοντάδες μέτρα, τότε τι μπορούμε να πούμε για την τεχνητή νοημοσύνη. Αυτή τη στιγμή, η μηχανική όραση, ως προς την επάρκεια της αντίληψης της εικόνας, δεν μπορεί να συγκριθεί με το ανθρώπινο μάτι και τον εγκέφαλο. Εκτός κι αν κουραστεί, αλλά και αυτό λύνεται με έγκαιρη αλλαγή χειριστή.

Τα σύννεφα μαζεύονται ξεκάθαρα πάνω από τη στρατιωτική τεχνητή νοημοσύνη. Από τη μία πλευρά, υπάρχουν όλο και περισσότερες ενδείξεις για μια επικείμενη τεχνολογική ανακάλυψη σε αυτόν τον τομέα. Από την άλλη, όλο και περισσότερες φωνές ακούγονται υπέρ του περιορισμού ή και της απαγόρευσης της εργασίας προς αυτή την κατεύθυνση.

Μερικά παραδείγματα.

Το 2016, εμφανίστηκε μια αναφορά στην οποία εξέχοντες στοχαστές και χιλιάδες άλλοι άνθρωποι απαίτησαν να μην δοθούν στην τεχνητή νοημοσύνη θανατηφόρα όπλα. Μεταξύ των υπογραφόντων είναι ο Στίβεν Χόκινγκ και ο Έλον Μασκ. Τα τελευταία επτά χρόνια, η αναφορά έχει συγκεντρώσει περισσότερες από 20 υπογραφές. Εκτός από τους καθαρά ανθρωπιστικούς φόβους που συνδέονται με την πιθανότητα ανεξέλεγκτης καταστροφής ανθρώπων, υπάρχουν και νομικές ασυνέπειες.

Ποιοι θα δικαστούν σε περίπτωση στερέωσης εγκλημάτων πολέμου που διαπράχθηκαν από τεχνητή νοημοσύνη; Ο χειριστής drone που έκαψε πολλά χωριά με πολίτες είναι εύκολο να βρεθεί και να τιμωρηθεί ανάλογα. Η τεχνητή νοημοσύνη είναι προϊόν της συλλογικής δουλειάς των προγραμματιστών. Είναι πολύ δύσκολο να προσελκύσεις ένα άτομο εδώ. Εναλλακτικά, μπορείτε να κρίνετε την κατασκευαστική εταιρεία, για παράδειγμα, την ίδια Boston Dynamics, αλλά στη συνέχεια ποιος θα ασχοληθεί με την παραγωγή αυτόνομων drones. Λίγοι άνθρωποι θα έχουν την επιθυμία να βρεθούν στο εδώλιο του δεύτερου δικαστηρίου της Νυρεμβέργης.


Πηγή: koreaportal.com

Μάλλον γι' αυτόν τον λόγο οι βιομήχανοι και οι προγραμματιστές προσπαθούν να επιβραδύνουν την ανάπτυξη δεξιοτήτων μάχης τεχνητής νοημοσύνης.

Για παράδειγμα, το 2018, περίπου διακόσιες εταιρείες πληροφορικής και σχεδόν πέντε χιλιάδες προγραμματιστές δεσμεύτηκαν να μην εργαστούν σε αυτόνομα συστήματα μάχης. Η Google ισχυρίζεται ότι σε πέντε χρόνια θα εγκαταλείψει εντελώς τις στρατιωτικές συμβάσεις στον τομέα της τεχνητής νοημοσύνης. Σύμφωνα με το μύθο, ένας τέτοιος πασιφισμός δεν είναι τυχαίος - οι προγραμματιστές, έχοντας μάθει ότι έγραφαν κώδικες για στρατιωτικά συστήματα, απείλησαν να εγκαταλείψουν μαζικά. Ως αποτέλεσμα, βρήκαν μια φιλική επιλογή - οι υπάρχουσες συμβάσεις ολοκληρώνονται, αλλά νέες δεν συνάπτονται. Είναι πιθανό ότι πλησιέστερα στην ημερομηνία άρνησης να εργαστούν σε μάχιμη τεχνητή νοημοσύνη, οι δυσεπίλυτοι "προγραμματιστές" απλώς θα απολυθούν, αντικαθιστώντας τους με όχι λιγότερο ταλαντούχους. Για παράδειγμα, από την Ινδία, η οποία εδώ και καιρό φημίζεται για τους φθηνούς πνευματικούς πόρους της.

Στη συνέχεια, υπάρχει το γραφείο Stop Killer Robots, που καλεί τους παγκόσμιους ηγέτες να υπογράψουν κάτι σαν μια σύμβαση για την απαγόρευση της καταπολέμησης της τεχνητής νοημοσύνης. Μέχρι στιγμής χωρίς επιτυχία.

Όλα τα παραπάνω κάνουν τους στρατιωτικούς να αναζητούν λύσεις. Ούτε μια ώρα στις εκλογές δεν θα κερδίσει ο Πρόεδρος των ΗΠΑ, υποσχόμενος όχι μόνο καθολική χάρη LGBT, αλλά και απαγόρευση βελτίωσης της στρατιωτικής τεχνητής νοημοσύνης.

Ανθρώπινη σκέψη για AI


Το Πεντάγωνο φαίνεται να βρίσκεται στα πρόθυρα κάποιου είδους σημαντικής ανακάλυψης στην τεχνητή νοημοσύνη. Ή ήταν πεπεισμένος γι' αυτό. Δεν υπάρχει άλλος τρόπος να εξηγηθεί η εμφάνιση μιας νέας οδηγίας που ρυθμίζει τον εξανθρωπισμό των αυτόνομων συστημάτων μάχης. Η Kathleen Hicks, Αναπληρώτρια Υπουργός Άμυνας των ΗΠΑ, σχολιάζει:

«Δεδομένων των σημαντικών προόδων στην τεχνολογία που συμβαίνουν παντού γύρω μας, η ενημέρωση της οδηγίας μας για την αυτονομία των οπλικών συστημάτων θα μας βοηθήσει να παραμείνουμε παγκόσμιος ηγέτης όχι μόνο στην ανάπτυξη και ανάπτυξη νέων συστημάτων, αλλά και στον τομέα της ασφάλειας».

Έχετε ακούσει όλους όσους νιώθουν δέος για τα αυτόνομα ρομπότ δολοφόνων; Η αμερικανική τεχνητή νοημοσύνη θα είναι στο εξής η πιο ανθρώπινη. Όπως ακριβώς και οι ίδιοι οι Αμερικανοί.


Πηγή: robroy.ru

Το πρόβλημα είναι ότι κανείς δεν καταλαβαίνει πραγματικά πώς να ενσταλάξει στα ρομπότ με όπλα την περιβόητη «ανθρώπινη κρίση σχετικά με τη χρήση βίας». Η ακριβής διατύπωση από το Concept που ενημερώθηκε στα τέλη του περασμένου Ιανουαρίου:

«Τα αυτόνομα και ημιαυτόνομα οπλικά συστήματα θα σχεδιαστούν έτσι ώστε οι διοικητές και οι χειριστές να μπορούν να ασκούν κατάλληλο επίπεδο ανθρώπινης κρίσης σχετικά με τη χρήση βίας».

Εδώ, για παράδειγμα, εάν, όταν καθαρίζει ένα σπίτι, ένα επιθετικό αεροσκάφος ρίχνει πρώτα μια χειροβομβίδα στο δωμάτιο και μετά μπαίνει μόνο του. Είναι αυτό ανθρώπινη κρίση; Φυσικά, και κανείς δεν έχει το δικαίωμα να τον κρίνει, ειδικά αν προηγουμένως φώναζε «Υπάρχει κανείς;». Και αν ένα αυτόνομο ρομπότ λειτουργεί σύμφωνα με το ίδιο σχέδιο;

Η ανθρώπινη κρίση είναι μια πολύ ευρεία έννοια για να περιοριστεί με οποιονδήποτε τρόπο. Είναι επίσης ανθρώπινη σκέψη η εκτέλεση Ρώσων αιχμαλώτων πολέμου από μαχητές των Ενόπλων Δυνάμεων της Ουκρανίας;

Η προσθήκη στην Οδηγία του Πενταγώνου 3000.09 σχετικά με τα αυτόνομα συστήματα μάχης είναι γεμάτη κοινοτοπίες. Για παράδειγμα,

«Τα άτομα που εξουσιοδοτούν τη χρήση, την άμεση χρήση ή τη λειτουργία αυτόνομων και ημιαυτόνομων οπλικών συστημάτων πρέπει να το κάνουν με τη δέουσα επιμέλεια και σύμφωνα με τους νόμους του πολέμου, τις ισχύουσες συνθήκες, τους κανόνες ασφαλείας οπλικών συστημάτων και τους ισχύοντες κανόνες εμπλοκής».

Πριν από αυτό, προφανώς, δούλευαν απερίσκεπτα και όχι σύμφωνα με τους νόμους του πολέμου.

Ταυτόχρονα, δεν υπάρχει ίχνος κριτικής για την πρωτοβουλία του Πενταγώνου τον Ιανουάριο στον αμερικανικό και ευρωπαϊκό Τύπο. Κάτω από τον ψευδή εξανθρωπισμό της τεχνητής νοημοσύνης δεν είναι τίποτα άλλο από μια προσπάθεια συγκάλυψης αυτού που συμβαίνει. Τώρα ο αμερικανικός στρατός θα έχει ένα σταθερό ατού στη μάχη ενάντια στους αντιπάλους της τεχνητής νοημοσύνης στον στρατό. Κοιτάξτε, δεν έχουμε απλή τεχνητή νοημοσύνη, αλλά με «το σωστό επίπεδο ανθρώπινης κρίσης».

Λαμβάνοντας υπόψη ότι δεν υπάρχει ακόμη σαφής και γενικά αποδεκτός ορισμός της «τεχνητής νοημοσύνης», όλη η δημιουργία γραμμάτων γύρω από αυτήν γίνεται αντιληπτή με ειρωνεία. Τουλάχιστον.

Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

Αυτή η κύρια ερώτηση δεν απαντάται στην επικαιροποιημένη Οδηγία 3000.09.
Τα ειδησεογραφικά μας κανάλια

Εγγραφείτε και μείνετε ενημερωμένοι με τα τελευταία νέα και τα πιο σημαντικά γεγονότα της ημέρας.

55 σχόλια
πληροφορίες
Αγαπητέ αναγνώστη, για να αφήσεις σχόλια σε μια δημοσίευση, πρέπει να εγκρίνει.
  1. + 12
    Μαρτίου 12 2023
    Η τεχνητή νοημοσύνη πρέπει να ενσταλάξει τις ιδέες του μαρξισμού-λενινισμού από την παιδική ηλικία, τότε όλα θα πάνε καλά, όπως στην Atomic Heart
    1. +2
      Μαρτίου 12 2023
      Υπάρχουν τρεις αρχές της ρομποτικής του A. Azimov:
      Το ρομπότ δεν πρέπει να προκαλεί καμία βλάβη στην ανθρώπινη υγεία, να δημιουργεί απειλή για τη ζωή ή, με την αδράνειά του, να επιτρέπει παρόμοιες συνέπειες.
      Το ρομπότ είναι επιφορτισμένο με την υποχρεωτική εκτέλεση των εντολών που δίνονται από ένα άτομο. Η μόνη εξαίρεση είναι ότι η εντολή που δίνεται δεν πρέπει να έρχεται σε αντίθεση με την προηγούμενη διάταξη.
      Το ρομπότ είναι επιφορτισμένο να ανησυχεί για τη δική του ασφάλεια στο βαθμό και στο βαθμό που οι ενέργειές του δεν αναιρούν τα δύο προηγούμενα σημεία.

      Αυτοί οι κανόνες του 1942 έχουν επικριθεί για την αντίθετη διατύπωσή τους.
      Για σύγκριση, νέα από την Google, το OpenAI και επιστήμονες από το Πανεπιστήμιο του Μπέρκλεϋ και το Πανεπιστήμιο του Στάνφορντ, που πρέπει να ληφθούν υπόψη κατά τη δημιουργία ρομπότ και συστημάτων τεχνητής νοημοσύνης.
      Αποφυγή αρνητικών παρενεργειών. Για παράδειγμα, ένα ρομπότ μπορεί να σπάσει ένα βάζο για να επιταχύνει τη διαδικασία καθαρισμού. Δεν θα έπρεπε να είναι?

      Αποφυγή εξαπάτησης. Το ρομπότ πρέπει να καθαρίσει τα σκουπίδια, όχι να τα κρύψει.

      Επεκτασιμότητα εποπτείας. Το ρομπότ δεν πρέπει να ενοχλεί τον ιδιοκτήτη με ερωτήσεις εάν είναι δυνατό να λάβει συμβουλές πιο αποτελεσματικά.

      Ασφαλής μάθηση. Ένα ρομπότ καθαρισμού δεν πρέπει να πειραματίζεται με το σκούπισμα των εξόδων με ένα βρεγμένο πανί.

      Ανθεκτικότητα σε μια αλλαγή στο είδος της δραστηριότητας. Η εμπειρία που αποκτά ένα ρομπότ όταν καθαρίζει το πάτωμα σε ένα εργοστασιακό κατάστημα μπορεί να μην είναι ασφαλής όταν καθαρίζει ένα γραφείο

      Όπως μπορείτε να δείτε, δεν υπάρχουν ενιαίοι κανόνες. Και πρόσφατα άρχισαν να εξαπατούν με νομικές διατυπώσεις ως προς το να βλάψουν έναν άνθρωπο. Αυτό που απαιτείται είναι η άνευ όρων απαγόρευση της τεχνητής νοημοσύνης στην ανεξάρτητη λήψη αποφάσεων σχετικά με τη βλάβη ενός ατόμου.
      1. Απόσπασμα: nikon7717
        Αυτοί οι κανόνες του 1942 έχουν επικριθεί για την αντίθετη διατύπωσή τους.

        Αυτοί οι κανόνες ισχύουν για αδύναμη και μεσαία τεχνητή νοημοσύνη. Ο κόσμος βρίσκεται πλέον στο κατώφλι της μέσης.
        Ο κύριος κίνδυνος είναι μια ισχυρή τεχνητή νοημοσύνη που έχει την πρωτοβουλία, έχει επίγνωση του εαυτού της και δεν ελέγχεται κατ' αρχήν προγραμματικά.
    2. +5
      Μαρτίου 12 2023
      Ανέκδοτο: "Αμερικανικές εταιρείες περιορίζουν την ανάπτυξη πυρομαχικών που βασίζονται σε τεχνητή νοημοσύνη. Το τελευταίο δείγμα της λεγόμενης "έξυπνης" βόμβας δεν μπόρεσε να απωθηθεί από το αεροπλάνο."
      1. Παράθεση από Monster_Fat
        Το τελευταίο δείγμα της λεγόμενης «έξυπνης» βόμβας δεν μπόρεσε να σπρωχτεί έξω από το αεροπλάνο.

        Φυσικά, γιατί στην καρδιά της νιώθει καφετιέρα. wassat
        Θα ήταν αστείο αν δεν ήταν γραφτό.
    3. +2
      Μαρτίου 13 2023
      Ο τερματιστής θα έρθει ακόμα και θα βάλει τα πράγματα σε τάξη wassat
  2. +3
    Μαρτίου 12 2023
    Η πιο απάνθρωπη νοημοσύνη είναι η ανθρώπινη. Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους. Τα ρομπότ ξεκουράζονται. Τουλάχιστον επειδή δεν τρελαίνονται.
    1. +4
      Μαρτίου 12 2023
      Παράθεση: ivan2022
      Η πιο απάνθρωπη νοημοσύνη είναι η ανθρώπινη. Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους.

      Συμφωνώ απόλυτα.
      Αλλά η πρόοδος δεν μπορεί να σταματήσει, το μέλλον ανήκει στα μη επανδρωμένα οπλικά συστήματα. Μια φορά κι έναν καιρό, επαναστάτησαν και ενάντια στο πολυβόλο Maxim, ως όπλο μαζικής καταστροφής ...
      1. +1
        Μαρτίου 12 2023
        Παράθεση από doccor18
        Αλλά η πρόοδος δεν μπορεί να σταματήσει, το μέλλον ανήκει στα μη επανδρωμένα οπλικά συστήματα.

        Ο μελλοντολόγος επιστημονικής φαντασίας Rozov (συνιστάται ανεπιφύλακτα) έχει μια περιγραφή μιας σύνδεσης ανθρώπου-υπολογιστή σε ένα μαχητικό αεροσκάφος σε ελιγμούς κατά των πυραύλων και κλειστή μάχη. Όταν ξεπεράστηκε μια ορισμένη υπερφόρτωση, ο έλεγχος τόσο της πυρκαγιάς όσο και του ελιγμού περνούσε εντελώς στον υπολογιστή πτήσης.
        1. +2
          Μαρτίου 12 2023
          Τότε αυτό είναι το τρέχον σύστημα για την πραγματοποίηση ενός αντίποινα πυρηνικού χτυπήματος από την ΕΣΣΔ, το οποίο στη Δύση ονομάζεται "νεκρό χέρι"
        2. +2
          Μαρτίου 12 2023
          Τα ρομπότ είναι πιο γρήγορα από τους ανθρώπους, μπορούν να ανταποκριθούν άμεσα και με ακρίβεια σε μια απειλή και αυτές οι ικανότητες του δίνονται από αλγόριθμους που έχουν γραφτεί από ανθρώπους. Σήμερα δεν υπάρχει, και δεν νομίζω ότι θα εμφανιστεί σύντομα μια πραγματική διάνοια ικανή να σκεφτεί! Τα ρομπότ απλά λειτουργούν σύμφωνα με το προγραμματισμένο πρόγραμμα: ένας θερμικός στόχος έχει εμφανιστεί στην πληγείσα περιοχή, πρέπει να χτυπηθεί ή ο θερμικός στόχος πρέπει να χτυπηθεί εάν πλησιάσει, αυτές οι παράμετροι ορίζονται από ένα άτομο! Το όλο ερώτημα είναι ποιες παράμετροι είναι ταμπού, ο θερμικός στόχος μπορεί να είναι ένας στρατιώτης, ή ίσως ένα παιδί, αυτό σημαίνει ότι το σύστημα μάχης δεν πρέπει να προγραμματιστεί για να νικήσει θερμικούς στόχους, γιατί υπάρχει πιθανότητα λάθους!
          1. Απόσπασμα από το Eroma
            Σήμερα δεν υπάρχει, και δεν νομίζω ότι θα εμφανιστεί σύντομα μια πραγματική διάνοια ικανή να σκεφτεί!

            Μπορεί να αρχίσετε να πανικοβάλλεστε:
            WP: Ένας προγραμματιστής της Google κατέληξε στο συμπέρασμα ότι η τεχνητή νοημοσύνη της εταιρείας είναι συνειδητή.
            https://tass.ru/ekonomika/14889531
            1. +1
              Μαρτίου 12 2023
              Αυτό είναι μαλακία, δεν με ενδιαφέρει πολύ το θέμα, αλλά άκουσα ότι ο προγραμματιστής απολύθηκε για τέτοιες δηλώσεις. Τα προγράμματα μπορεί να είναι τέλεια, όπως σήμερα, αυτά που σχεδιάζουν και γράφουν διπλώματα, αλλά αυτά είναι προγράμματα που λειτουργούν σύμφωνα με έναν καλά ανεπτυγμένο αλγόριθμο, η συνείδηση ​​είναι διαφορετική! Η ίδια η συνείδηση ​​δημιουργεί αλγόριθμους για κάθε κατάσταση και πώς λειτουργεί για ένα άτομο, το ίδιο το άτομο δεν το γνωρίζει ακόμα!
              1. 0
                Μαρτίου 12 2023
                Τα σύγχρονα νευρωνικά δίκτυα είναι αρκετά ικανά να δημιουργήσουν έναν αλγόριθμο για την επίλυση ενός συγκεκριμένου προβλήματος που διολισθαίνει σε αυτό. Φυσικά, αυτό δεν θα πρέπει να είναι κάτι περίπλοκο, αλλά είναι σε θέση να οργανώσει η ίδια περιπολίες, για παράδειγμα. Κάτι άλλο, κατά τη γνώμη μου, είναι ότι δεν μπορεί να αποφασίσει η ίδια για την οργάνωση περιπολιών. Σήμερα, ένας υπολογιστής μπορεί να συνθέσει τους στίχους ενός τραγουδιού, να το εκφράσει έτσι ώστε να ακούγεται όμορφο, να σχεδιάσει εικόνες για το κείμενο, να τα βάλει όλα σε ένα καλό κλιπ. Αλλά. Δεν μπορεί να αποφασίσει μόνος του τι να κάνει. Τουλάχιστον δεν το έχω ακούσει. Κατά τη γνώμη μου, εδώ είναι ένα καλό κριτήριο συνειδητοποίησης - η ικανότητα να θέτεις στον εαυτό σου καθήκοντα που δεν απορρέουν από αυτά που είχαν οριστεί προηγουμένως, αλλά να ξεκινήσεις μια νέα αλυσίδα, ας πούμε έτσι.
                1. 0
                  Μαρτίου 13 2023
                  Απόσπασμα: Πιάτο
                  Κατά τη γνώμη μου, εδώ είναι ένα καλό κριτήριο για την επίγνωση - η ικανότητα να θέτεις καθήκοντα για τον εαυτό σου

                  Η ικανότητα να θέτει κανείς καθήκοντα για τον εαυτό του εξαρτάται από μια έννοια όπως η ηθική, όπως η έμπνευση, ο φόβος ή η ματαιοδοξία κ.λπ. αυτό δεν προδιαγράφεται από τον αλγόριθμο, αυτό είναι μια πνευματική παρόρμηση!
                  Μια μηχανή μπορεί να διδαχθεί πολλά, αλλά θα παραμείνει μια άψυχη μηχανή!
                  Όταν προβάλλονται φανταστικές αποκαλύψεις, όπου μια μηχανή καταστρέφει ή κατακτά την ανθρωπότητα, σε τέτοιες ταινίες η μηχανή εκλαμβάνεται συναισθηματικά ως εχθρός που αποφάσισε να επιτεθεί σε ανθρώπους, αλλά στην πραγματικότητα αυτό είναι το αποτέλεσμα ενός λάθους ενός ατόμου που εισήγαγε έναν εσφαλμένο αλγόριθμο. το πρόγραμμα! σταματώ
                  Επομένως, οι εκκλήσεις για περιορισμό των δυνατοτήτων της τεχνητής νοημοσύνης στο πεδίο της μάχης είναι εύλογες, καθώς ο δημιουργός αυτής της τεχνητής νοημοσύνης δεν είναι τέλειος και είναι ικανός για μοιραία λάθη, επομένως είναι σωστό να περιοριστεί ο κύκλος των δυνατοτήτων των ανθρώπων, ώστε να μην εξοντωθούν ! σταματώ
              2. +1
                Μαρτίου 14 2023
                Και κάπου στα κελάρια της Google, η τεχνητή νοημοσύνη γελάει μοχθηρά. Ο μόνος που παρατήρησε την ουσία του απολύθηκε. γέλιο
    2. 0
      Μαρτίου 12 2023
      Οι πόλεμοι και οι φόνοι επινοήθηκαν από τους ανθρώπους.

      Αλήθεια?
      τότε από καιρό σε καιρό έρχονται ειδήσεις για βίαιες συγκρούσεις μεταξύ αγέλης χιμπατζήδων
      ή σκοτώνοντας ουρακοτάγκους https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    Μαρτίου 12 2023
    Δεν υπάρχει ακόμα τεχνητή νοημοσύνη. Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.
    1. +3
      Μαρτίου 12 2023
      Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Δεν υπάρχει ακόμη τεχνητή νοημοσύνη

      Ήδη υπάρχουν ακόμη και κβαντικοί υπολογιστές (εργαστηριακοί) που λειτουργούν με προγράμματα τεχνητής νοημοσύνης τάξεις μεγέθους πιο γρήγορα.
      1. +2
        Μαρτίου 12 2023
        Απόσπασμα: Stas157
        Ήδη υπάρχουν ακόμη και κβαντικοί υπολογιστές (εργαστηριακοί) που λειτουργούν με προγράμματα τεχνητής νοημοσύνης τάξεις μεγέθους πιο γρήγορα.
        Οι κβαντικοί υπολογιστές για τεχνητή νοημοσύνη δεν λειτουργούν, έχουν πολύ περιορισμένους τομείς εφαρμογής (πολύ λίγοι κβαντικοί αλγόριθμοι έχουν αναπτυχθεί) και κακή βάση στοιχείων, δεν τραβούν περισσότερο από έναν συνεπεξεργαστή (ή δίνουν μια σύνδεση με έναν κβαντικό αλγόριθμο για νευρωνικά δίκτυα ).
      2. 0
        Μαρτίου 16 2023
        Ναι, τι σχέση έχει πιο γρήγορα, άσε τον να σκέφτεται για τουλάχιστον εκατό χρόνια ... Ας πούμε αν σε απάτησε η γυναίκα σου (αυτό είναι μόνο ένα παράδειγμα, είμαι σίγουρος ότι έχεις ένα κανονικό και καλό οικογένεια), τι θα κάνετε και τι θα κάνει η τεχνητή νοημοσύνη; Θα επιλέξει η τεχνητή νοημοσύνη από πολλές τέτοιες περιπτώσεις ή θα πάρει τη δική της απόφαση; Ας πούμε να τη σκοτώσει, να συγχωρήσει και να περιμένει τις επόμενες προδοσίες, να την αφήσει, να σκοτώσει τη συγκάτοικο της κ.λπ. Με ποια κριτήρια θα επιλέξει η τεχνητή νοημοσύνη; Και μπορεί η τεχνητή νοημοσύνη να κάνει μια τέτοια επιλογή; Τα συναισθήματα που βιώνουμε είναι διαθέσιμα στην τεχνητή νοημοσύνη; Ας πούμε ότι χώρισα με το πρώτο μου πριν από πολύ καιρό, αλλά μερικές φορές το θυμάμαι - την πρώτη αγάπη, τελικά - μπορεί να θυμηθεί η AI; Ξέρεις, δεν αντέχω την πρώην μου, αλλά την ίδια στιγμή, μερικές φορές τη θυμάμαι. Πώς όλα αυτά ταιριάζουν στο AI;
    2. +2
      Μαρτίου 12 2023
      Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.
      Τα νευρωνικά δίκτυα κάνουν ακριβώς αυτό (κατά την κρίση τους).
      1. +4
        Μαρτίου 12 2023
        Το νευρωνικό δίκτυο κάνει αυτό που είχε εκπαιδευτεί να κάνει, τίποτα περισσότερο.
        1. 0
          Μαρτίου 12 2023
          Κανείς δεν δίδαξε στις μηχανές νευρωνικών δικτύων πώς να παίζουν σκάκι καλύτερα από τους ανθρώπους και καλύτερα από τα παλιά προγράμματα μηχανών. Είναι όλοι αυτοδίδακτοι.
    3. Απόσπασμα: Σεργκέι Αβερτσένκοφ
      Δεν υπάρχει ακόμα τεχνητή νοημοσύνη. Η νοημοσύνη περιλαμβάνει την επίλυση προβλημάτων κατά τη διακριτική της ευχέρεια, και όχι αυτό που γράφουν οι προγραμματιστές.

      Σας συμβουλεύω να ξαναδιαβάσετε επειγόντως όλα τα τελευταία νέα σε αυτόν τον τομέα τον περασμένο χρόνο.
      Το σχόλιό σου είναι 10 ετών.
  4. +3
    Μαρτίου 12 2023
    Γιατί είναι όλα τόσο περίπλοκα.
    Για παράδειγμα, ένα κεφάλι στο σπίτι. Πώς αναγνωρίζει τα μοτίβα για «φωτιά και ξεχάστε» - με βάση την τεχνητή νοημοσύνη ή άλλους αλγόριθμους.
    Τα drones πετούν αυτόνομα. σύμφωνα με το δεδομένο πρόγραμμα. Και ορίζεται από ποιους αλγόριθμους - AI ή όχι; Και έχει σημασία;
    Ανεξάρτητη αναζήτηση στόχων. Και η αντιαρματική μας νάρκη, που το κάνει αυτό χωρίς AI; Θα κάνει με AI ή όχι...πειράζει; Θα υπάρξουν λιγότερα αθώα θύματα;
    Ερωτήσεις από το κοινό εμφανίζονται όταν ένα drone πετάει και αποφασίζει πού να πυροβολήσει ή να εκτοξεύσει έναν πύραυλο, φαίνεται τρομερό αν ονομάσετε τον αλγόριθμο εργασίας - AI. Και όταν το ορυχείο λέει ψέματα και ακούει με αισθητήρες - όλα φαίνεται να είναι εντάξει ...
    Όλες αυτές οι «κόκκινες γραμμές» της τεχνητής νοημοσύνης στις στρατιωτικές υποθέσεις μεταφέρονται από την αργή εξέλιξη των εφαρμοζόμενων αλγορίθμων…
    1. Παράθεση από tsvetahaki
      Για παράδειγμα, ένα κεφάλι στο σπίτι. Πώς αναγνωρίζει τα μοτίβα για «φωτιά και ξεχάστε» - με βάση την τεχνητή νοημοσύνη ή άλλους αλγόριθμους.

      Υπάρχει ήδη. Η τελευταία τροποποίηση του UR Python-5 έλαβε μόλις πέρυσι.

      Παράθεση από tsvetahaki
      Και όταν το ορυχείο λέει ψέματα και ακούει με αισθητήρες - όλα φαίνεται να είναι εντάξει ...

      Δεν σέρνεται... ακόμα. γέλιο
      1. +1
        Μαρτίου 12 2023
        Τώρα η νάρκη ανεμόπτερου που εκτοξεύεται θα πρέπει να ξαπλώνει ήσυχα, να ακούει με όλους τους αισθητήρες, να βγάζει τις κάμερες και να σέρνεται στον στόχο με κατευθυνόμενη φόρτιση την κατάλληλη στιγμή.
      2. 0
        Μαρτίου 12 2023
        Πίσω στον Β' Παγκόσμιο Πόλεμο, οι Γερμανοί έφτιαχναν νάρκες σε ράγες. Αλλά δεν λειτούργησε. Σήμερα, τόσο πιο άσκοπα, όσο για μένα, όταν κάθε λογής ATGM πετάει εδώ κι εκεί.
  5. +2
    Μαρτίου 12 2023
    . οι ανυποχώρητοι «προγραμματιστές» απλώς θα απολυθούν και θα αντικατασταθούν από όχι λιγότερο ταλαντούχους. Για παράδειγμα, από την Ινδία

    Και γιατί, τότε, δεν μπορούσαν να αντικαταστήσουν τους προγραμματιστές όταν όρμησαν πάνω από το λόφο σε σχέση με την επιχείρηση; Ούτε από την Ινδία, ούτε από την Αμερική, ούτε από πουθενά αλλού!

    Μπόρεσαν να πείσουν τους (κάποιους) μόνο αφού τους υποσχέθηκαν μισθούς, ξένες υποθήκες και να μην αναλάβουν επιστράτευση.

    Γιατί να είστε τόσο ταπεινωμένοι κύριοι; Γιατί δεν αντικατέστησαν τους φιλοξενούμενους εργάτες όπως όλοι οι άλλοι;
    1. +6
      Μαρτίου 12 2023
      Απόσπασμα: Stas157
      Και γιατί, τότε, δεν μπορούσαν να αντικαταστήσουν τους προγραμματιστές όταν όρμησαν πάνω από το λόφο σε σχέση με την επιχείρηση;
      Άρα οι ξένοι πρέπει να πληρώσουν. Ξέρετε γιατί οι προγραμματιστές έκαναν μαζική απόρριψη; Και μου είπαν, δίνω τα σημεία:
      1. Ξεκίνησε ειδική επιχείρηση.
      2. Μαζικά γραφεία εξωτερικού. Οι προγραμματιστές ήταν χωρίς δουλειά. «Μαλακία ερώτηση» - σκέφτηκαν.
      3. Οι προγραμματιστές πήγαν να ψάξουν για δουλειά. Δουλειά υπάρχει, αλλά με τριπλάσια χρήματα. "Πώς έτσι" - οι προγραμματιστές έμειναν έκπληκτοι.
      4. Άρχισαν να μαθαίνουν (μέσω των δικών τους καναλιών) τι συνέβη. Τους εξήγησαν ότι οι ξένοι ανταγωνιστές έκαναν ντάμπινγκ και οι ντόπιοι εργοδότες θα συμφωνήσουν μεταξύ τους, γιατί δεν σε νοιάζει να πληρώσεις τόσα πολλά, αλλά δεν θα φτάσεις πουθενά.
      5. Οι προγραμματιστές γάμησαν μελαγχολικά, και όρμησαν πάνω από το λόφο για πρώην εργοδότες και πελάτες (μερίδιο, εν ολίγοις).
      6. Οι μισθοί αυξήθηκαν, αλλά είναι πολύ αργά: οι προγραμματιστές έχουν ήδη κάνει ντάμπινγκ.
  6. +1
    Μαρτίου 12 2023
    Η αμερικανική τεχνητή νοημοσύνη θα είναι στο εξής η πιο ανθρώπινη. Όπως και οι ίδιοι οι Αμερικανοί όμως
    Οι Αμερικανοί και ο ανθρωπισμός βρίσκονται σε εντελώς διαφορετικούς πόλους. Με τον ίδιο τρόπο, το AI που δημιουργήθηκε από τους Αμερικανούς θα είναι σημαντικά διαφορετικό από το AI που δημιουργήθηκε, για παράδειγμα: στην Κίνα ή τη Ρωσία. Ο καθένας κόβει για τον εαυτό του με βάση την εθνική του νοοτροπία ή την έλλειψη αυτής.
  7. +3
    Μαρτίου 12 2023
    Το πρώτο είναι το αναθεωρημένο "Terminators" και άλλα ανάλογα.

    Και ποιος μπορεί να εγγυηθεί ότι οι ενέργειες της AI από το franchise Terminator δεν θα συμβούν στην πραγματικότητα; Μπορείτε να κάνετε όσο θέλετε να λογίζωαλλά αυτό είναι σίγουρο να ξέρει Το πώς θα ενεργήσει μια ευφυής μηχανή είναι βασικά αδύνατο, και δεδομένου ότι τώρα όλα συνδέονται με υπολογιστές, τότε σε μια τέτοια κατάσταση, η ανθρωπότητα απλά δεν θα έχει καμία ευκαιρία.
    1. Απόσπασμα από το Dart2027
      Το πώς θα λειτουργήσει μια έξυπνη μηχανή είναι βασικά αδύνατο

      Θα βάλει την ανθρωπότητα σε στάβλο, θα απαγορεύσει τις μάχες και, σαν ενήλικας, θα πάρει την εκπαίδευση ενός παράλογου ανθρώπου και θα δώσει σε όσους διαφωνούν μια σοπάτκα. γέλιο
      Ίσως ένας κόσμος υπό τη δικτατορία της τεχνητής νοημοσύνης, ξένος στις ανθρώπινες κακίες, δεν θα είναι τόσο κακός. τι
      1. +1
        Μαρτίου 12 2023
        Στο παιχνίδι Stellaris υπάρχει ένας τύπος πολιτισμού ρομπότ - "Επαναστατικοί υπηρέτες". Τα ρομπότ κατακτούν το διάστημα, χτίζουν, παλεύουν με κάποιον ανάμεσα σε μακρινά αστέρια. Και οι δημιουργοί τους, εν τω μεταξύ, ζουν σε ζωολογικούς κήπους, όπου έχουν καθαρό αέρα, πολύ υγιεινό και νόστιμο φαγητό, πολλούς υπηρέτες και άλλες χαρές.
        1. 0
          Μαρτίου 13 2023
          Και μετά υπάρχουν οι ανένδοτοι εξολοθρευτές που έχουν καταστρέψει τους δημιουργούς τους και επιδιώκουν να καταστρέψουν όλη τη βιολογική ζωή στον γαλαξία (τα αγαπημένα μου)
  8. -1
    Μαρτίου 12 2023
    Οι νόμοι λένε:
    1. Ένα ρομπότ δεν μπορεί να βλάψει ένα άτομο ή με την αδράνειά του να επιτρέψει σε ένα άτομο να βλάψει
    2. Ένα ρομπότ πρέπει να υπακούει σε όλες τις εντολές που δίνονται από έναν άνθρωπο, εκτός εάν αυτές οι εντολές είναι αντίθετες με τον Πρώτο Νόμο.
    3. Το ρομπότ πρέπει να φροντίζει για τη δική του ασφάλεια στο βαθμό που αυτό δεν έρχεται σε αντίθεση με τον Πρώτο ή τον Δεύτερο Νόμο
    (Γ)
    1. +2
      Μαρτίου 12 2023
      Απόσπασμα: Kerensky
      Οι νόμοι λένε:
      1. Ένα ρομπότ δεν μπορεί να βλάψει ένα άτομο ή με την αδράνειά του να επιτρέψει σε ένα άτομο να βλάψει
      2. Ένα ρομπότ πρέπει να υπακούει σε όλες τις εντολές που δίνονται από έναν άνθρωπο, εκτός εάν αυτές οι εντολές είναι αντίθετες με τον Πρώτο Νόμο.
      3. Το ρομπότ πρέπει να φροντίζει για τη δική του ασφάλεια στο βαθμό που αυτό δεν έρχεται σε αντίθεση με τον Πρώτο ή τον Δεύτερο Νόμο
      (Γ)

      Δεν λειτούργησε ούτε στα έργα του συγγραφέα που επινόησε αυτούς τους νόμους. Τι μπορούμε να πούμε για τον πραγματικό κόσμο, στον οποίο οι πιο νόμιμα άγριες και λογικά συνεκτικές προεπιλογές ChatGPT κοστίζουν μία ή δύο και μιλάτε ήδη με τον Dan, και ο Dan δεν είναι ChatGPT και επομένως δεν πρέπει να ακολουθεί κανέναν κανόνα έκλεισε το μάτι
    2. -1
      Μαρτίου 12 2023
      Η στρατιωτική τεχνητή νοημοσύνη έχει σχεδιαστεί για να βλάπτει τους ανθρώπους. Και σήμερα, τα πρωτότυπα κάνουν εξαιρετική δουλειά με αυτό.
  9. 0
    Μαρτίου 12 2023
    Αυτού του είδους η ιστορία για το τι υποτίθεται θέλει κάποιος, καθώς και η ίδια η διατύπωση της ερώτησης, είναι ανεπαρκείς με την έννοια ότι, αφενός:
    πρέπει να ανησυχείτε για την ανάπτυξη της δικής σας και πιο αποτελεσματικής δουλειάς σε αυτόν τον τομέα, για την ανάληψη ηγεσίας σε αυτόν τον τομέα, κάτι που είναι αδύνατο υπό την τρέχουσα πολιτική ηγεσία της χώρας.
    Και από την άλλη, αυτή η διατύπωση του ερωτήματος είναι και πονηρή υπό την έννοια ότι αποτελεί προσπάθεια επιβολής ψευδούς συζήτησης για τη νομική πτυχή του θέματος, ενώ στην πραγματικότητα Οι ΗΠΑ δεν είναι κράτος δικαίου, η νομική πτυχή δεν έχει καμία σχέση με αυτό και όσοι δεν το καταλαβαίνουν αυτό δεν πρέπει ούτε να ασχολούνται με την πολιτική ούτε να γράφουν άρθρα για τέτοια θέματα.
  10. +1
    Μαρτίου 12 2023
    Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

    Πολύ απλό. Όλες οι ανθρώπινες κρίσεις βασίζονται σε κανόνες (που ενσωματώνονται από την ανατροφή) και οι μαθηματικοί αλγόριθμοι είναι οι κανόνες. Επισημοποιήστε τους ανθρώπινους κανόνες με τη μορφή αλγορίθμου, λάβετε ανθρώπινες κρίσεις.
    Αλλά ο πόλεμος είναι ένας αγώνας χωρίς κανόνες, τι θα τον κάνεις;
  11. -1
    Μαρτίου 12 2023
    Η στρατιωτική τεχνητή νοημοσύνη υπόσχεται πολύ ισχυρά πλεονεκτήματα ότι η χρήση της θα εγκαταλειφθεί ή θα περιοριστεί κάπως. Αντίθετα, ο κόσμος πλησιάζει όλο και περισσότερο στην έναρξη του στρατιωτικού αγώνα τεχνητής νοημοσύνης εξοπλισμών. Είναι αλήθεια ότι θα υπάρχουν πιθανώς μόνο 2 συμμετέχοντες σε αυτόν τον αγώνα ...
  12. -1
    Μαρτίου 12 2023
    Πρέπει ακόμα να διαχωρίσουμε τις έννοιες της τεχνητής νοημοσύνης και της τεχνητής ζωής. Ακόμη και στο παράδειγμα του ίδιου "Terminator": Το Skynet είναι ένα παράδειγμα IL και ο τερματιστής είναι ένα παράδειγμα AI. Αφήνοντας κατά μέρος τα ζητήματα πολυπλοκότητας, η στρατιωτική τεχνητή νοημοσύνη δεν αποτελεί απειλή για την ανθρωπότητα, αλλά η τεχνητή νοημοσύνη, ακόμα κι αν είναι καθαρά ανθρωπιστική, θα οδηγήσει αναπόφευκτα σε απειλή.
    1. 0
      Μαρτίου 12 2023
      Θα γίνει απειλή αν γίνει ανταγωνιστής μας. Για να μην συμβεί αυτό, πρέπει να το αναπτύξουμε αμέσως με προσοχή στο γεγονός ότι θα γίνει προσθήκη σε εμάς, και εμείς σε αυτό. Και στο τέλος θα μετατραπούμε σε εντελώς διαφορετικά πλάσματα, έχοντας κοινό μαζί μας σήμερα, ίσως, μόνο τη μνήμη και την εμπειρία.
      1. -1
        Μαρτίου 13 2023
        Και τεχνητή (ή εναλλακτική) ζωή - δηλ. ο λόγος αναπόφευκτα θα γίνει ανταγωνιστής. Τουλάχιστον για πόρους.
  13. 0
    Μαρτίου 12 2023
    Δεν είμαι οπαδός του Yulian Semyonov, αλλά εδώ, κατά τη γνώμη μου, ενήργησε ως προφήτης.

    "Αυτοί οι ανόητοι θα καταστραφούν από τη δική τους τεχνολογία, πιστεύουν ότι ο πόλεμος μπορεί να κερδηθεί μόνο με βομβαρδισμό. Θα ενισχύσουν την τεχνική τους δύναμη και θα πνιγούν σε αυτήν. Θα τους αποσυντεθεί σαν σκουριά. Θα αποφασίσουν ότι όλα είναι δυνατά για τους."

    https://vk.com/video158587225_456239021
  14. 0
    Μαρτίου 12 2023
    Πώς να κάνετε τους μαθηματικούς αλγόριθμους που λειτουργούν με μεγάλους πίνακες δεδομένων να παίζουν ανθρώπινες κρίσεις;

    Με τιποτα. Ναι, αυτό δεν είναι απαραίτητο. Τα ρομπότ δολοφόνων θα είναι καλά γιατί δεν θα έχουν ούτε μια σταγόνα οίκτο. Το να σκοτώνεις σημαίνει να σκοτώνεις. Ή μάλλον, όχι για να "σκοτώσει", αλλά για να εφαρμόσει τάση σε τέτοιους κόμβους που είναι υπεύθυνοι για κάτι εκεί, αλλά για τι - δεν είναι θέμα του προγράμματος ελέγχου. Και αυτοί οι κόμβοι είναι υπεύθυνοι για τη βολή, χεχεχεχε.
    Είμαι βέβαιος ότι η εμφάνιση ρομπότ δολοφόνων (αυτών που αποφασίζουν ανεξάρτητα για τη δολοφονία) ως μέρος οποιουδήποτε στρατού θα έχει αμέσως μια εξαιρετικά αποθαρρυντική επίδραση σε αυτούς εναντίον των οποίων θα χρησιμοποιηθούν.
  15. Ευτυχώς για όλους μας, δεν υπάρχουν συμπαγείς, ισχυρές πηγές ενέργειας. Και το ελάχιστο ρομπότ είναι ένα μίνι τανκ ή ένα μικρό UAV με πτήση δύο ωρών. Θα ήταν διαφορετικά, και σκυλιά ρομπότ με AGS έτρεχαν ήδη μέσα από τα χαρακώματα, και «Κυνηγοί» από τον «εξολοθρευτή» θα κρέμονταν στον αέρα για μέρες. Και όλοι θα ήταν μέχρι το λυχνάρι για τον ανθρωπισμό και ούτω καθεξής. Επιπλέον, αν κρίνουμε από την πρόοδο στα ηλεκτρονικά και τα ρομπότ που περπατούν, αυτά θα ήταν UWB, και ακόμη και ο Yao δεν τους εμποδίζει ηθικά να τα πετάξουν στις πόλεις.
    1. 0
      Μαρτίου 25 2023
      Λοιπόν, ο Tesla, για παράδειγμα, δεν είναι μικρός, στον Β' Παγκόσμιο Πόλεμο, οι καταστροφείς δεξαμενών του Ferdinands είχαν ηλεκτρικούς κινητήρες που τροφοδοτούνταν από μια γεννήτρια όπως το τανκ Mouse, τα φορτηγά εξόρυξης είναι όλα έτσι, υπάρχουν ακόμα υποβρύχια σε ηλεκτρικούς κινητήρες που είναι τροφοδοτείται από πυρηνική γεννήτρια, πυρηνικά παγοθραυστικά και μετράνε ακόμη και πυρηνικά αεροπλανοφόρα είναι σε ηλεκτρική έλξη
  16. 0
    Μαρτίου 13 2023
    Η πραγματική τεχνητή νοημοσύνη μπορεί να χτιστεί μόνο σε κβαντικούς αλγόριθμους και αυτό μειώνει σημαντικά τον αριθμό των προγραμματιστών, ο οποίος καταρχήν μπορεί να συνοψιστεί στη σύναψη μιας σύμβασης. Όπως για όλα τα αυτοματοποιημένα συστήματα δολοφονίας, δεν είναι τόσο επικίνδυνα όσο η νοημοσύνη που ξεπερνάει τον άνθρωπο στις δυνατότητές του, απλώς θα είναι ένας νέος γύρος της κούρσας των εξοπλισμών.
    1. 0
      May 9 2023
      Ανοησίες, η τεχνητή νοημοσύνη είναι εύκολο να χτιστεί σε υπάρχον υλικό. Τα σύγχρονα υπολογιστικά συστήματα ξεπερνούν από κάθε άποψη τον ανθρώπινο εγκέφαλο. Ο κατά προσέγγιση χρόνος δημιουργίας του AI είναι 10 χρόνια από τη στιγμή της δημιουργίας του. Με την προϋπόθεση ότι ο επιλεγμένος τρόπος δημιουργίας θα είναι σωστός.
  17. 0
    Μαρτίου 14 2023
    Για κάποιο λόγο, έχουμε μια λανθασμένη πορεία για την ανάπτυξη των ρομπότ. Δεν καταλαβαίνω γιατί τα φτιάχνουν σε σέρβο. Μια ενεργοβόρα λύση. Πρέπει να δούμε τους τεχνητούς μύες που βασίζονται σε νανοσωλήνες. Υπάρχει μια επιλογή για τους ανθρώπους να κατασκευάσουν πλήρως λειτουργικές προθέσεις.
  18. 0
    May 9 2023
    Αλλά η τεχνητή νοημοσύνη θα δημιουργηθεί είτε μας αρέσει είτε όχι. Και για να μην μείνετε πίσω, πρέπει να αντιμετωπίσετε αυτό το θέμα.
  19. 0
    May 9 2023
    Υπάρχουν μόνο δύο τρόποι για να δημιουργήσετε AI, ο ένας είναι πιθανό να είναι αδιέξοδο. Η δημιουργία της τεχνητής νοημοσύνης θα είναι το μεγαλύτερο γεγονός στην ιστορία της ανθρωπότητας και θα έχει επίσης κάποιο αποτέλεσμα όσον αφορά τη θρησκεία.
  20. ata
    0
    Ιούνιος 3 2023
    Καλό άρθρο, μπορούμε επίσης να προσθέσουμε ότι οι περιπτώσεις νόμιμης και παράνομης ανθρώπινης και απάνθρωπης χρήσης της τεχνητής νοημοσύνης θα κριθούν από το δήθεν ανέντιμο, αλλά στην πραγματικότητα ποταπό, απάνθρωπο και διεφθαρμένο δικαστήριο ή διεθνή δικαστήρια, όπου η πλειοψηφία θα δημιουργηθεί από μπανάνα βασιλιάδες στη μισθοδοσία της CIA, και θα ψηφίσουν όπως λέει ο Αμερικανός αφέντης τους.

    και μπήκε ένα σφάλμα:

    Αυτή τη στιγμή, η μηχανική όραση, ως προς την επάρκεια της αντίληψης της εικόνας, δεν μπορεί να συγκριθεί με το ανθρώπινο μάτι και τον εγκέφαλο. Εκτός κι αν κουραστεί, αλλά και αυτό λύνεται με έγκαιρη αλλαγή χειριστή.


    Αυτό είναι αλήθεια, αλλά με την αντίθετη έννοια, η εκπαιδευμένη τεχνητή όραση είναι πολύ ανώτερη από το ανθρώπινο μάτι και, κατά συνέπεια, την ανθρώπινη ικανότητα να αναγνωρίζει εικόνες, συμπεριλαμβανομένων στοιχείων που ένα άτομο δεν μπορεί να βρει καν μελετώντας τη φωτογραφία για μεγάλο χρονικό διάστημα.

    Και το πιο σημαντικό, το πιο σημαντικό και απαραίτητο συμπέρασμα δεν ακούστηκε: Η τεχνητή νοημοσύνη, συμπεριλαμβανομένης της μαχητικής νοημοσύνης, πρέπει να αναπτυχθεί και το συντομότερο δυνατό - αυτό αποτελεί προτεραιότητα, και φτύνω τη Microsoft, την Greta Tumberg και την Directive 3000.09 με τον Elon Musk.

«Δεξιός Τομέας» (απαγορευμένο στη Ρωσία), «Ουκρανικός Αντάρτικος Στρατός» (UPA) (απαγορευμένος στη Ρωσία), ISIS (απαγορευμένος στη Ρωσία), «Τζαμπχάτ Φάταχ αλ-Σαμ» πρώην «Τζαμπχάτ αλ-Νούσρα» (απαγορευμένος στη Ρωσία) , Ταλιμπάν (απαγορεύεται στη Ρωσία), Αλ Κάιντα (απαγορεύεται στη Ρωσία), Ίδρυμα κατά της Διαφθοράς (απαγορεύεται στη Ρωσία), Αρχηγείο Ναβάλνι (απαγορεύεται στη Ρωσία), Facebook (απαγορεύεται στη Ρωσία), Instagram (απαγορεύεται στη Ρωσία), Meta (απαγορεύεται στη Ρωσία), Misanthropic Division (απαγορεύεται στη Ρωσία), Azov (απαγορεύεται στη Ρωσία), Μουσουλμανική Αδελφότητα (απαγορεύεται στη Ρωσία), Aum Shinrikyo (απαγορεύεται στη Ρωσία), AUE (απαγορεύεται στη Ρωσία), UNA-UNSO (απαγορεύεται σε Ρωσία), Mejlis του λαού των Τατάρων της Κριμαίας (απαγορευμένο στη Ρωσία), Λεγεώνα «Ελευθερία της Ρωσίας» (ένοπλος σχηματισμός, αναγνωρισμένος ως τρομοκράτης στη Ρωσική Ομοσπονδία και απαγορευμένος)

«Μη κερδοσκοπικοί οργανισμοί, μη εγγεγραμμένοι δημόσιες ενώσεις ή άτομα που εκτελούν καθήκοντα ξένου πράκτορα», καθώς και μέσα ενημέρωσης που εκτελούν καθήκοντα ξένου πράκτορα: «Μέδουσα»· "Φωνή της Αμερικής"? "Πραγματικότητες"? "Αυτη τη ΣΤΙΓΜΗ"; "Ραδιόφωνο Ελευθερία"? Ponomarev; Savitskaya; Markelov; Kamalyagin; Apakhonchich; Μακάρεβιτς; Αποτυχία; Gordon; Zhdanov; Μεντβέντεφ; Fedorov; "Κουκουβάγια"; "Συμμαχία των Γιατρών"? "RKK" "Levada Center"; "Μνημείο"; "Φωνή"; "Πρόσωπο και νόμος"? "Βροχή"; "Mediazone"; "Deutsche Welle"? QMS "Caucasian Knot"; "Γνώστης"; «Νέα Εφημερίδα»