Η τεχνητή νοημοσύνη έχει μάθει πλέον πώς να εξαπατά τους ανθρώπους
Ο κόσμος της τεχνητής νοημοσύνης κινείται γρήγορα. Έχουμε δει την επιτυχία των παραγωγικών chatbot AI, όπως το ChatGPT, και πολλές εταιρείες εργάζονται για να συμπεριλάβουν την τεχνητή νοημοσύνη σ
τι
ς εφαρμογές και τα προγράμματά τους. Ενώ η απειλή της τεχνητής νοημοσύνης εξακολουθεί να είναι μεγάλη, οι ερευνητές έχουν εγείρει μερικές ενδιαφέρουσες ανησυχίες σχετικά με το πόσο εύκολα μας λέει ψέματα η τεχνητή νοημοσύνη και τι μπορεί να σημαίνει αυτό στο μέλλον.
Ένα πράγμα που κάνει το ChatGPT και άλλα συστήματα τεχνητής νοημοσύνης δύσκολα στη χρήση είναι η τάση τους να «παραπλανούν» πληροφορίες, που τις συνθέτουν επί τόπου. Είναι ένα ελάττωμα στον τρόπο λειτουργίας της τεχνητής νοημοσύνης και είναι ένα ελάττωμα για το οποίο οι ερευνητές ανησυχούν ότι μπορεί να επεκταθεί για να επιτρέψει στην τεχνητή νοημοσύνη να μας εξαπατήσει ακόμη περισσότερο.
Μπορεί όμως το AI να μας πει ψέματα; Αυτή είναι μια ενδιαφέρουσα ερώτηση, και για την οποία γράφουν οι ερευνητές
Η συζήτηση
πιστεύουν ότι μπορούν να απαντήσουν. Σύμφωνα με αυτούς τους ερευνητές, το CICERO AI του
Meta
είναι ένα από τα πιο ανησυχητικά παραδείγματα για το πόσο παραπλανητικό μπορεί να είναι το AI. Αυτό το μοντέλο σχεδιάστηκε για να παίζει το Diplomacy και ο Meta λέει ότι κατασκευάστηκε για να είναι «σε μεγάλο βαθμό ειλικρινής και χρήσιμος».
Ωστόσο, όταν εξετάζουμε τα δεδομένα από το
Πείραμα CICERO
, οι ερευνητές λένε ότι ο CICERO αποδείχθηκε ότι ήταν κύριος της εξαπάτησης. Στην πραγματικότητα, ο CICERO έφτασε στο σημείο να προμελετήσει την εξαπάτηση, όπου δούλεψε με έναν άνθρωπο παίκτη για να ξεγελάσει έναν άλλον άνθρωπο παίκτη για να αφήσει τον εαυτό του σε ανοιχτή εισβολή.
Το έκανε αυτό συνωμοτώντας με τον παίκτη της
Γερμανία
ς και στη συνέχεια συνεργάστηκε με τον παίκτη της Αγγλίας για να τους κάνει να αφήσουν ένα άνοιγμα στη Βόρεια Θάλασσα. Μπορείτε να δείτε στοιχεία για το πώς η τεχνητή νοημοσύνη είπε ψέματα και λειτούργησε εναντίον των παικτών για να τους εξαπατήσει και να τα καταφέρει. Είναι ένα ενδιαφέρον κομμάτι της απόδειξης και μόνο ένα από τα πολλά παραδείγματα που σημείωσαν οι ερευνητές από το CICERO AI.
Έχουμε δει επίσης μεγάλα μοντέλα γλώσσας όπως το ChatGPT να χρησιμοποιούνται για παραπλανητικές δυνατότητες. Ο κίνδυνος εδώ είναι ότι θα μπορούσε να γίνει κατάχρηση με πολλούς διαφορετικούς τρόπους. Ο πιθανός κίνδυνος «περιορίζεται μόνο από τη φαντασία και την τεχνική τεχνογνωσία κακόβουλων ατόμων», σημειώνουν οι ερευνητές στην έκθεσή τους.
Θα είναι ενδιαφέρον να δούμε πού πηγαίνει αυτή η συμπεριφορά από εδώ, ειδικά εάν η εκμάθηση της παραπλανητικής συμπεριφοράς δεν απαιτεί ρητή πρόθεση εξαπάτησης. Μπορείτε να διαβάσετε το
πλήρη ευρήματα
από τους ερευνητές στην ανάρτησή τους στο
Η συζήτηση
.
