Το OpenAI αποκλείει τους κρατικούς χορηγούς χάκερ από τη χρήση του ChatGPT



Το OpenAI έχει αφαιρέσει λογαριασμούς που χρησιμοποιούνται από κρατικές ομάδες απειλών από το Ιράν, τη Βόρεια Κορέα, την Κίνα και τη Ρωσία, οι οποίες έκαναν κατάχρηση του chatbot τεχνητής νοημοσύνης ChatGPT.

Ο ερευνητικός οργανισμός AI ανέλαβε δράση κατά συγκεκριμένων λογαριασμών που σχετίζονται με ομάδες χάκερ που έκαναν κατάχρηση των υπηρεσιών του για κακόβουλους σκοπούς, αφού έλαβε βασικές πληροφορίες από την ομάδα Threat

της Microsoft.

Σε ξεχωριστή αναφορά, η Microsoft

παρέχει

περισσότερες λεπτομέρειες σχετικά με το πώς και γιατί αυτοί οι προηγμένοι παράγοντες απειλών χρησιμοποίησαν το ChatGPT.

Η δραστηριότητα που σχετίζεται με τις ακόλουθες ομάδες απειλών τερματίστηκε στην πλατφόρμα:

  1. Forest

    (Strontium) [





    ]: Χρησιμοποίησε το ChatGPT για τη διεξαγωγή έρευνας σε τεχνολογίες δορυφόρων και ραντάρ που σχετίζονται με στρατιωτικές επιχειρήσεις και για τη βελτιστοποίηση των επιχειρήσεων στον κυβερνοχώρο με βελτιώσεις σεναρίου.
  2. Emerald Sleet (Θάλλιο) [


    North



    ]: Μόχλευση ChatGPT για την έρευνα της Βόρειας Κορέας και τη δημιουργία περιεχομένου ψαρέματος με δόρυ, παράλληλα με την κατανόηση τρωτών σημείων (όπως το CVE-2022-30190 “Follina”) και την αντιμετώπιση προβλημάτων τεχνολογιών ιστού.
  3. Crimson Sandstorm (Κούριο) [


    Iran


    ]: Ασχολείται με το ChatGPT για βοήθεια κοινωνικής μηχανικής, αντιμετώπιση προβλημάτων, ανάπτυξη .NET και ανάπτυξη τεχνικών αποφυγής.
  4. Charcoal Typhoon (Χρώμιο) [


    China


    ]: Αλληλεπίδρασε με το ChatGPT για να βοηθήσει στην ανάπτυξη εργαλείων, τη δημιουργία σεναρίων, την κατανόηση εργαλείων κυβερνοασφάλειας και τη δημιουργία περιεχομένου κοινωνικής μηχανικής.
  5. Salmon Typhoon (Νάτριο) [


    China


    ]: Απασχόλησε LLM για διερευνητικές έρευνες σε ένα ευρύ φάσμα θεμάτων, συμπεριλαμβανομένων ευαίσθητων πληροφοριών, ατόμων υψηλού προφίλ και ασφάλειας στον κυβερνοχώρο, για να επεκτείνει τα εργαλεία συλλογής πληροφοριών και να αξιολογήσει τις δυνατότητες των νέων τεχνολογιών για την

    πληροφοριών.

Γενικά, οι φορείς απειλών χρησιμοποίησαν τα μεγάλα γλωσσικά μοντέλα για να ενισχύσουν τις στρατηγικές και επιχειρησιακές τους ικανότητες, συμπεριλαμβανομένης της αναγνώρισης, της κοινωνικής μηχανικής, των τακτικών φοροδιαφυγής και της συλλογής γενικών πληροφοριών.

Καμία από τις περιπτώσεις που παρατηρήθηκαν δεν περιλαμβάνει τη χρήση LLM για άμεση ανάπτυξη κακόβουλου λογισμικού ή ολοκληρωμένων προσαρμοσμένων εργαλείων εκμετάλλευσης.

Αντίθετα, η πραγματική βοήθεια κωδικοποίησης αφορούσε εργασίες χαμηλότερου επιπέδου, όπως η αίτηση συμβουλών αποφυγής, η δημιουργία σεναρίων, η απενεργοποίηση του προγράμματος προστασίας από ιούς και γενικά η βελτιστοποίηση τεχνικών λειτουργιών.

Τον Ιανουάριο, μια έκθεση από το Εθνικό Κέντρο Ασφάλειας Κυβερνοασφάλειας (NCSC) του Ηνωμένου Βασιλείου προέβλεψε ότι έως το 2025 οι λειτουργίες εξελιγμένων προηγμένων επίμονων απειλών (APT) θα επωφεληθούν από τα εργαλεία AI σε όλους τους τομείς, ειδικά στην ανάπτυξη προσαρμοσμένου κακόβουλου λογισμικού αποφυγής.

Πέρυσι, ωστόσο, σύμφωνα με τα ευρήματα του OpenAI και της Microsoft, υπήρξε μια άνοδος στα τμήματα επιθέσεων APT όπως το phishing/social engineering, αλλά τα υπόλοιπα ήταν μάλλον διερευνητικά.

Η OpenAI λέει ότι θα συνεχίσει να παρακολουθεί και να παρεμποδίζει τους κρατικά υποστηριζόμενους χάκερ χρησιμοποιώντας εξειδικευμένη τεχνολογία παρακολούθησης, πληροφορίες από συνεργάτες του κλάδου και ειδικές ομάδες που επιφορτίζονται με τον εντοπισμό ύποπτων μοτίβων χρήσης.

“Παίρνουμε διδάγματα από την κακοποίηση αυτών των παραγόντων και τα χρησιμοποιούμε για να ενημερώσουμε την επαναληπτική μας προσέγγιση για την ασφάλεια.”

διαβάζει η ανάρτηση του OpenAI

.

«Η κατανόηση του τρόπου με τον οποίο οι πιο εξελιγμένοι κακόβουλοι παράγοντες επιδιώκουν να χρησιμοποιήσουν τα συστήματά μας για να βλάψουν, μας δίνει ένα μήνυμα για πρακτικές που μπορεί να γίνουν πιο διαδεδομένες στο μέλλον και μας επιτρέπει να εξελίσσουμε συνεχώς τις διασφαλίσεις μας», πρόσθεσε η εταιρεία.


VIA:

bleepingcomputer.com


Follow TechWar.gr on Google News


Leave A Reply



Cancel Reply

Your email address will not be published.