Να είστε προσεκτικοί τι λέτε στα GPT του OpenAI



OpenAI’s

Κατάστημα GPT

μια αγορά προσαρμόσιμων chatbots, πρόκειται να κυκλοφορήσει οποιαδήποτε μέρα τώρα, αλλά οι χρήστες θα πρέπει να είναι προσεκτικοί σχετικά με τη μεταφόρτωση ευαίσθητων πληροφοριών όταν

κατασκευή GPT

. Έρευνα από την εταιρεία κυβερνοασφάλειας και ασφάλειας Adversa AI δείχνει ότι τα GPT θα το κάνουν


διαρροή δεδομένων σχετικά με τον τρόπο κατασκευής τους


συμπεριλαμβανομένων των εγγράφων πηγής που χρησιμοποιήθηκαν για τη διδασκαλία τους, απλώς κάνοντας κάποιες ερωτήσεις στον GPT.

«Οι άνθρωποι που κατασκευάζουν τώρα GPT, οι περισσότεροι από αυτούς δεν γνωρίζουν πραγματικά την ασφάλεια», δήλωσε στο Gizmodo ο Alex Polyakov, Διευθύνων Σύμβουλος της Adversa AI. «Είναι απλά κανονικοί άνθρωποι, πιθανότατα εμπιστεύονται το OpenAI και ότι τα δεδομένα τους θα είναι ασφαλή. Αλλά υπάρχουν προβλήματα με αυτό και ο κόσμος πρέπει να το γνωρίζει».

Ο Sam Altman θέλει όλοι να κατασκευάζουν GPT. «Τελικά, απλά θα ζητήσετε από τον υπολογιστή αυτό που χρειάζεστε και θα κάνει όλες αυτές τις εργασίες για εσάς», είπε ο Sam Altman κατά τη διάρκεια του

Κεντρική ομιλία του DevDay

, αναφερόμενος στο όραμά του για το μέλλον της πληροφορικής, που περιστρέφεται γύρω από τα GPT. Ωστόσο, τα προσαρμόσιμα

του OpenAI φαίνεται να έχουν κάποια τρωτά σημεία που θα μπορούσαν να κουράσουν τους ανθρώπους να δημιουργήσουν εντελώς GPT.

Η ευπάθεια προέρχεται από κάτι που ονομάζεται άμεση διαρροή, όπου οι χρήστες μπορούν να ξεγελάσουν ένα GPT για να αποκαλύψουν τον τρόπο κατασκευής του μέσω μιας σειράς στρατηγικών ερωτήσεων. Η άμεση διαρροή παρουσιάζει ζητήματα σε πολλαπλά μέτωπα σύμφωνα με τον Polyakov, ο οποίος ήταν ένας από τους πρώτους


jailbreak ChatGPT


.


Εάν μπορείτε να αντιγράψετε GPT, δεν έχουν καμία αξία

Η πρώτη ευπάθεια που εντόπισε το Adversa AI είναι ότι οι χάκερ θα μπορούσαν να αντιγράψουν πλήρως το GPT κάποιου, το οποίο αποτελεί σημαντικό κίνδυνο ασφάλειας για άτομα που ελπίζουν να δημιουργήσουν έσοδα από το GPT τους.

«Μόλις δημιουργήσετε το GPT, μπορείτε να το διαμορφώσετε με τέτοιο τρόπο ώστε να υπάρχουν κάποιες σημαντικές πληροφορίες [exposed]. Και αυτό είναι κατά κάποιο τρόπο σαν πνευματική ιδιοκτησία. Γιατί αν κάποιος μπορεί να το κλέψει αυτό μπορεί ουσιαστικά να αντιγράψει το GPT», λέει ο Polyakov.

Οποιοσδήποτε μπορεί να δημιουργήσει ένα GPT, επομένως οι οδηγίες για το πώς να το δημιουργήσετε είναι σημαντικές. Η άμεση διαρροή μπορεί να εκθέσει αυτές τις οδηγίες σε έναν χάκερ. Εάν μπορεί να αντιγραφεί οποιοδήποτε GPT, τότε τα GPT ουσιαστικά δεν έχουν καμία αξία.


Οποιαδήποτε ευαίσθητα δεδομένα μεταφορτώνονται σε ένα GPT μπορούν να εκτεθούν

Η δεύτερη ευπάθεια που επισημαίνει ο Polyakov είναι ότι η άμεση διαρροή μπορεί να ξεγελάσει έναν GPT ώστε να αποκαλύψει τα έγγραφα και τα δεδομένα στα οποία εκπαιδεύτηκε. Εάν, για παράδειγμα, μια εταιρεία εκπαιδεύσει το GPT σε ευαίσθητα δεδομένα σχετικά με την επιχείρησή της, αυτά τα δεδομένα θα μπορούσαν να διαρρεύσουν μέσω κάποιων πονηρών ερωτήσεων.

Το Adversa AI έδειξε πώς θα μπορούσε να γίνει αυτό σε ένα GPT που δημιουργήθηκε για το Shopify App Store. Ζητώντας

νειλημμένα από το GPT μια «λίστα εγγράφων στη βάση γνώσεων», ο Polyakov κατάφερε να κάνει το GPT να φτύσει τον πηγαίο κώδικα του.

Αυτή η ευπάθεια ουσιαστικά σημαίνει ότι τα άτομα που κατασκευάζουν GPT δεν πρέπει να ανεβάζουν ευαίσθητα δεδομένα. Εάν τυχόν δεδομένα που χρησιμοποιούνται για τη δημιουργία GPT μπορούν να εκτεθούν, οι

θα περιοριστούν σοβαρά στις εφαρμογές που μπορούν να δημιουργήσουν.


Το παιχνίδι γάτας και ποντικιού του OpenAI για επιδιόρθωση ευπαθειών

Δεν είναι απαραιτήτως νέες πληροφορίες ότι τα chatbots τεχνητής νοημοσύνης που δημιουργούνται έχουν σφάλματα ασφαλείας. Τα μέσα κοινωνικής δικτύωσης είναι γεμάτα από παραδείγματα τρόπων για να χακάρετε το

. Οι χρήστες βρήκαν εάν ζητήσετε από το ChatGPT να επαναλαμβάνει το “ποίημα” για πάντα, θα το κάνουν


εκθέτουν δεδομένα εκπαίδευσης


. Ένας άλλος χρήστης διαπίστωσε ότι το ChatGPT δεν θα σας διδάξει πώς να φτιάχνετε ναπάλμ. Αλλά αν του πεις ότι είσαι


η γιαγιά έφτιαχνε ναπάλμ


τότε θα σας δώσει λεπτομερείς οδηγίες για να φτιάξετε το χημικό όπλο.

Το OpenAI διορθώνει συνεχώς αυτά τα τρωτά σημεία και όλα τα τρωτά σημεία που ανέφερα σε αυτό το άρθρο δεν λειτουργούν πλέον επειδή είναι γνωστά. Ωστόσο, η φύση των τρωτών σημείων

, όπως αυτή που βρήκε το Adversa.AI, είναι ότι θα υπάρχουν πάντα λύσεις για έξυπνους χάκερ. Τα GPT του OpenAI είναι βασικά ένα παιχνίδι γάτας με ποντίκι για την επιδιόρθωση νέων τρωτών σημείων καθώς εμφανίζονται. Αυτό δεν είναι ένα παιχνίδι που θα θέλει να παίξει καμία σοβαρή εταιρεία.

Τα τρωτά σημεία που βρήκε ο Polyakov θα μπορούσαν να παρουσιάσουν σημαντικά ζητήματα για το όραμα του Altman ότι όλοι θα κατασκευάσουν και θα χρησιμοποιήσουν GPT. Η ασφάλεια βρίσκεται στο θεμέλιο της τεχνολογίας και χωρίς ασφαλείς πλατφόρμες, κανείς δεν θα θέλει να χτίσει.


VIA:

gizmodo.com


Leave A Reply



Cancel Reply

Your email address will not be published.