Η ρωσική εταιρεία κατασκοπευτικού λογισμικού χρησιμοποιεί το ChatGPT για επιτήρηση




Καλώς ήρθατε στο AI This Week, την εβδομαδιαία ενημέρωση του Gizmodo, όπου κάνουμε μια βαθιά κατάδυση σχετικά με το τι συμβαίνει στην τεχνητή νοημοσύνη.

Αυτή την εβδομάδα το Forbes


έχουν αναφερθεί


ότι μια ρωσική εταιρεία spyware που ονομάζεται Social Links είχε αρχίσει να χρησιμοποιεί το ChatGPT για τη διεξαγωγή ανάλυσης συναισθημάτων. Το ανατριχιαστικό πεδίο μέσω του οποίου αστυνομικοί και κατάσκοποι συλλέγουν και αναλύουν δεδομένα κοινωνικών μέσων για να κατανοήσουν πώς αισθάνονται οι χρήστες του Ιστού για πράγματα,

ανάλυση συναισθήματος

είναι μία από τις πιο σκιαγραφικές περιπτώσεις χρήσης για το μικρό chatbot που έχει ακόμη εμφανιστεί.

Social Links, που ήταν προηγουμένως


εκτόξευσε τις πλατφόρμες του Μέτα


για υποτιθέμενη παρακολούθηση χρηστών, έδειξε την αντισυμβατική χρήση του ChatGPT σε μια διάσκεψη ασφαλείας στο Παρίσι αυτή την εβδομάδα. Η εταιρεία μπόρεσε να αξιοποιήσει την ικανότητα του chatbot για σύνοψη και ανάλυση κειμένου για να περιηγηθεί σε μεγάλα κομμάτια δεδομένων, χωνεύοντάς τα γρήγορα. Σε μια επίδειξη, η εταιρεία τροφοδότησε δεδομένα που συλλέγονται από το δικό της ιδιόκτητο εργαλείο στο ChatGPT. Τα δεδομένα, τα οποία αφορούσαν διαδικτυακές αναρτήσεις σχετικά με μια πρόσφατη διαμάχη στην Ισπανία, αναλύθηκαν στη συνέχεια από το chatbot, το οποίο τα βαθμολόγησε «ως θετικά, αρνητικά ή ουδέτερα, εμφανίζοντας τα αποτελέσματα σε ένα διαδραστικό γράφημα», γράφει το Forbes.

Προφανώς, οι υποστηρικτές της ιδιωτικής ζωής το βρήκαν κάτι παραπάνω από λίγο ενοχλητικό – όχι μόνο λόγω αυτής της συγκεκριμένης περίπτωσης, αλλά για όσα λέει σχετικά με το πώς η τεχνητή νοημοσύνη θα μπορούσε να κλιμακώσει τις εξουσίες της βιομηχανίας παρακολούθησης γενικά.

Ο Rory Mir, αναπληρωτής διευθυντής κοινοτικής οργάνωσης με το Electronic Frontier Foundation, είπε ότι η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει τις αρχές επιβολής του νόμου να διευρύνουν τις προσπάθειες παρακολούθησης, επιτρέποντας σε μικρότερες ομάδες μπάτσων να επιτηρούν μεγαλύτερες ομάδες με ευκολία. Ήδη, οι αστυνομικές

χρησιμοποιούν συχνά πλαστά προφίλ για να ενσωματωθούν σε διαδικτυακές κοινότητες. αυτού του είδους η παρακολούθηση έχει ανατριχιαστικό αποτέλεσμα στην ομιλία στο διαδίκτυο, είπε ο Μιρ. Και πρόσθεσε: «Το τρομακτικό πράγμα με πράγματα όπως το ChatGPT είναι ότι μπορούν να κλιμακώσουν αυτού του είδους τη λειτουργία». Η τεχνητή νοημοσύνη μπορεί να κάνει «πιο εύκολο για τους αστυνομικούς να εκτελούν γρηγορότερα ανάλυση» σχετικά με τα δεδομένα που συλλέγουν κατά τη διάρκεια αυτών των μυστικών επιχειρήσεων, πράγμα που σημαίνει ότι «τα εργαλεία τεχνητής νοημοσύνης είναι [effectively] επιτρέποντας» την διαδικτυακή παρακολούθηση, πρόσθεσε.

Ο Μιρ σημείωσε επίσης ένα κραυγαλέο πρόβλημα με αυτό το είδος χρήσης της τεχνητής νοημοσύνης: τα chatbots έχουν ένα πολύ κακό ιστορικό αναστάτωσης και απόδοσης κακών αποτελεσμάτων. «Η τεχνητή νοημοσύνη είναι πραγματικά ανησυχητική σε σενάρια υψηλού στοιχήματος όπως αυτό», είπε ο Mir. “Είναι ένα πράγμα να διαβάζεις το ChatGPT ένα προσχέδιο του άρθρου σου ώστε να μπορείς να το ρωτήσεις “Πόσο αποδεκτό είναι αυτό;” Αλλά όταν μετακινείται στην επικράτεια, ας πούμε, για να καθορίσει εάν κάποιος βρει δουλειά ή στέγαση ή, σε αυτήν την περίπτωση, καθορίζει εάν κάποιος τυγχάνει αδικαιολόγητης προσοχής από την αστυνομία ή όχι, τότε αυτές οι προκαταλήψεις γίνονται, όχι απλώς ένα πράγμα. να λογοδοτήσει, αλλά ένας λόγος για να μην το χρησιμοποιήσετε με αυτόν τον τρόπο [at all].»

Ο Mir πρόσθεσε ότι το «μαύρο

» των δεδομένων εκπαίδευσης AI σημαίνει ότι είναι δύσκολο να είμαστε σίγουροι εάν η απόκριση του αλγορίθμου θα είναι αξιόπιστη ή όχι. «Εννοώ, αυτό το υλικό είναι εκπαιδευμένο σε δεδομένα Reddit και 4chan», λέει γελώντας. «Έτσι οι προκαταλήψεις που προέρχονται από αυτά τα υποκείμενα δεδομένα θα επανεμφανιστούν στο μωσαϊκό των αποτελεσμάτων του».

Ερώτηση της ημέρας: WTF έκανε ο Sam Altman;

φωτογραφία

:

Τζάστιν Σάλιβαν

(

Getty Images

)


Σε μια από τις πιο συγκλονιστικές ανατροπές στην πρόσφατη ιστορία της

ς, ο Sam Altman απομακρύνθηκε από τη θέση του ως CEO της OpenAI. Την Παρασκευή,


μία δήλωση


κυκλοφόρησε από την εταιρεία ανακοινώνοντας μια απότομη μετάβαση ηγεσίας. “Κύριος. Η αποχώρηση του Altman ακολουθεί μια διαδικασία διαβουλευτικής επανεξέτασης από το συμβούλιο, το οποίο κατέληξε στο συμπέρασμα ότι δεν ήταν σταθερά ειλικρινής στις επικοινωνίες του με το διοικητικό συμβούλιο, εμποδίζοντας την ικανότητά του να ασκεί τις ευθύνες του. Το διοικητικό συμβούλιο δεν έχει πλέον εμπιστοσύνη στην ικανότητά του να συνεχίσει να ηγείται του OpenAl.” Στο άμεσο κενό ισχύος που άνοιξε αυτή η συγκλονιστική τροπή των γεγονότων, το διοικητικό συμβούλιο προφανώς επέλεξε τη

, την επικεφαλής τεχνολογίας της εταιρείας, για να υπηρετήσει ως προσωρινός διευθύνων σύμβουλος, αναφέρει το δελτίο τύπου. Μέχρι στιγμής, είναι εντελώς ασαφές τι θα μπορούσε να έχει κάνει ο Sam για να επιτρέψει μια τέτοια καταστροφική καριέρα στη μύτη. Πρέπει να τα βγάλετε σοβαρά για να μεταβείτε από τον πρίγκιπα της πόλης της Silicon Valley σε παρία κατά τη διάρκεια της ημέρας. Περιμένω με καρφίτσες και βελόνες να ακούσω τι ακριβώς έγινε εδώ.

Περισσότερα πρωτοσέλιδα από αυτήν την εβδομάδα


  • Η αυτοματοποιημένη υγειονομική περίθαλψη ακούγεται σαν ένας επιβεβαιωμένος εφιάλτης.

    Νέα μήνυση


    ισχυρίζεται ότι


    Η UnitedHealthcare χρησιμοποιεί έναν αλγόριθμο τεχνητής νοημοσύνης με βαθιά ελαττώματα για να «παρακάμψει» τις κρίσεις των γιατρών όταν πρόκειται για ασθενείς, επιτρέποντας έτσι στον ασφαλιστικό γίγαντα να αρνηθεί την κάλυψη των ηλικιωμένων και ασθενών ασθενών. Η μήνυση, η οποία κατατέθηκε στο Περιφερειακό Δικαστήριο των ΗΠΑ στη Μινεσότα, υποστηρίζει ότι η NaviHealth, θυγατρική της UnitedHealth, χρησιμοποιεί έναν αλγόριθμο τεχνητής νοημοσύνης κλειστού κώδικα, τον nH Predict, ο οποίος, εκτός από το ότι χρησιμοποιείται για την άρνηση κάλυψης ασθενών, έχει ιστορικό λάθος πολλές φορές. Η Ars Technica έχει


    την πλήρη ιστορία


    .


  • φαίνεται να έχει «τυφλωθεί» από την απότομη έξοδο του Sam Altman στο OpenAI

    . Ενα νέο


    κανω ΑΝΑΦΟΡΑ


    από την Axios ισχυρίζεται ότι η Microsoft, το βασικό στοιχείο του OpenAI

    επιχειρηματικός εταίρος (και χρηματοδότης)

    ήταν «τυφλός» από το γεγονός ότι ο επικεφαλής της εκτελεστής εκτινάσσεται τώρα με εξαιρετική προκατάληψη. Η έκθεση δεν λέει πολλά περισσότερα από αυτό και αναφέρει μόνο ένα «άτομο εξοικειωμένο με την κατάσταση». Αρκεί να πούμε ότι όλοι εξακολουθούν να είναι αρκετά μπερδεμένοι σχετικά με αυτό.

  • Το Ηνωμένο Βασίλειο μπορεί τελικά να μην ρυθμίζει την τεχνητή νοημοσύνη

    . Φαίνεται ότι η επίθεση γοητείας της Big Tech σε όλη τη λίμνη λειτούργησε. Τις τελευταίες εβδομάδες, μερικά από τα μεγαλύτερα στοιχεία στον κλάδο της AI—

    συμπεριλαμβανομένου του Έλον Μασκ

    —ταξίδεψε στο Ηνωμένο Βασίλειο για να παρακολουθήσει μια σύνοδο κορυφής AI. Ο γενικός λόγος των στελεχών που παρευρέθηκαν ήταν: Η τεχνητή νοημοσύνη θα μπορούσε να καταστρέψει τον κόσμο, αλλά παρακαλώ, ας μην κάνουμε τίποτα γι ‘αυτό προς το παρόν. Αυτή την εβδομάδα, ο υπουργός τεχνητής νοημοσύνης και πνευματικής ιδιοκτησίας της χώρας, Τζόναθαν Κάμροουζ,


    είπε στον Τύπο


    ότι, «βραχυπρόθεσμα», το έθνος δεν ήθελε να εφαρμόσει «πρόωρη ρύθμιση» και ήθελε να απομακρυνθεί από την «ασφυκτική καινοτομία».


VIA:

gizmodo.com


Leave A Reply



Cancel Reply

Your email address will not be published.