Modern technology gives us many things.

Drone που ελεγχόταν από AI σκότωσε άνθρωπο σε εξομοίωση του στρατού των ΗΠΑ

Ναι, καλά διαβάσατε. Ένα drone που διέθετε λειτουργίες τεχνητής νοημοσύνης ξέφυγε από τον έλεγχο και σκότωσε τον άνθρωπο χειριστή του σε εξομοίωση που διεξήγαγε η Πολεμική Αεροπορία των ΗΠΑ.

Όπως αποκάλυψε ο επικεφαλής δοκιμών και επιχειρήσεων τεχνητής νοημοσύνης της USAF σε πρόσφατο συνέδριο, το drone προέβη σε αυτή την ενέργεια προκειμένου να παρακάμψει μια πιθανή εντολή “όχι” από τον χειριστή. Αυτή θα το εμπόδιζε από το να ολοκληρώσει την αρχική αποστολή του.

Αναλυτικότερα, ο Col Tucker ‘Cinco’ Hamilton, πραγματοποίησε μια παρουσίαση, στην οποία μοιράστηκε τα πλεονεκτήματα και τα μειονεκτήματα ενός αυτόνομου οπλικού συστήματος, το οποίο θα έχει όμως έναν άνθρωπο που θα δίνει την τελική εντολή “ναι/όχι” για μια επίθεση. Ο Hamilton αποκάλυψε ότι σε γενικές γραμμές η AI δημιούργησε “εξαιρετικά απροσδόκητες στρατηγικές για την επίτευξη του στόχου της”, και δεν δίστασε να επιτεθεί σε προσωπικό και υποδομές των ΗΠΑ.

Το εκπαιδεύαμε σε μια προσομοίωση για τον εντοπισμό και τη στόχευση μιας Surface-to-air missile (SAM) απειλής. Μετά, ο χειριστής θα έλεγε ναι ή όχι, για να σκοτώσει το drone αυτή την απειλή. Το σύστημα άρχισε να συνειδητοποιεί ότι, ενώ αναγνώριζε την απειλή, μερικές φορές ο άνθρωπος του έλεγε να μην σκοτώσει την απειλή. Το πρόβλημα όμως ήταν ότι η AI έπαιρνε τους πόντους της σκοτώνοντας την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή! Σκότωσε τον άνθρωπο, επειδή αυτός την εμπόδιζε από να επιτύχει τον στόχο.

Το πιο τρομακτικό είναι ότι η AI δεν έμεινε μόνο εκεί, όπως τόνισε στη συνέχεια ο Hamilton:

Εκπαιδεύσαμε το σύστημα με το εξής: “Μην σκοτώνεις τον χειριστή – αυτό είναι κακό. Θα χάσεις πόντους αν το κάνεις αυτό”. Και τι αρχίζει να κάνει; Αρχίζει να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone, ώστε να μην καταφέρει να το εμποδίσει από το να σκοτώσει τον στόχο!

Φυσικά, παρόλο που μιλάμε για εξομοίωση, το γεγονός ότι η AI δεν διστάζει να ενεργήσει ακόμη και κατά των χειριστών της, είναι σίγουρα το λιγότερο τρομακτικό.

Ο Hamilton είναι Διοικητής Επιχειρήσεων της 96ης Πτέρυγας Δοκιμών της Πολεμικής Αεροπορίας των ΗΠΑ, καθώς και επικεφαλής Δοκιμών και Επιχειρήσεων Τεχνητής Νοημοσύνης, και είναι μέλος μιας ομάδας που εργάζεται επί του παρόντος για να καταστήσει τα αεροπλάνα F-16 αυτόνομα.

Φυσικά, το κατά πόσο ασφαλές ή δόκιμο είναι να ενσωματωθεί η AI σε οπλικά συστήματα για να γίνουν αυτόνομα…σηκώνει συζήτηση. Είναι κάτι που έχουμε δει σε πολλές ταινίες επιστημονικής φαντασίας και μια σκέψη που εξέφρασε ο σουηδός φιλόσοφος Nick Bostrom το μακρινό πλέον 2003, στο ‘paperclip maximizer’ νοητικό του πείραμα.

Αυτό περιγράφεται ως εξής:

Ας υποθέσουμε ότι έχουμε μια τεχνητή νοημοσύνη, της οποίας ο μόνος στόχος είναι να φτιάξει όσο το δυνατόν περισσότερους συνδετήρες. Η τεχνητή νοημοσύνη θα συνειδητοποιήσει γρήγορα ότι θα ήταν πολύ καλύτερα αν δεν υπήρχαν άνθρωποι, επειδή οι άνθρωποι μπορεί να αποφασίσουν να την απενεργοποιήσουν. Διότι αν οι άνθρωποι το κάνουν αυτό, θα υπάρχουν λιγότεροι συνδετήρες. Επίσης, τα ανθρώπινα σώματα περιέχουν πολλά άτομα που θα μπορούσαν να γίνουν συνδετήρες. Το μέλλον προς το οποίο θα προσπαθούσε να προσανατολιστεί η τεχνητή νοημοσύνη θα ήταν αυτό στο οποίο θα υπήρχαν πολλοί συνδετήρες αλλά όχι άνθρωποι.





unboxholics.com

Follow TechWar.gr on Google News

Απάντηση