OpenAI
δημοσίευσε
μι
α μελέτη που διεξήγαγε η εταιρεία σχετικά με την αποτελεσματικότητα
του
GPT-4
δημιουργώντας ένα βιοόπλο
την Τετάρτη. Η εταιρεία διαπίστωσε ότι η τεχνητή νοημοσύνη της ενέχει «το πολύ» έναν μικρό κίνδυνο για να βοηθήσει κάποιον
δημιουργούν μια βιολογική απειλή
. Γίνεται πολύς λόγος
Το AI επιταχύνει την επικείμενη καταστροφή μας
αλλά το OpenAI θέλει να ξέρεις ότι είσαι καλά… μάλλον!
«Διαπιστώσαμε ότι το GPT-4 παρέχει το πολύ μια ήπια αύξηση στην ακρίβεια δημιουργίας βιολογικών απειλών», δήλωσε το OpenAI σε μια
ανάρτηση
Τετάρτη, σχετικά με μια αξιολόγηση στην οποία συμμετείχαν ειδικοί βιολογίας και φοιτητές βιολογίας. «Αν και αυτή η ανάκαμψη δεν είναι αρκετά μεγάλη για να καταλήξουμε στο συμπέρασμα, το εύρημα μας είναι ένα σημείο εκκίνησης για συνεχή έρευνα και προβληματισμό στην κοινότητα».
Γιατί λοιπόν το OpenAI κυκλοφόρησε αυτή τη μελέτη για να μας ενημερώσει ότι το ChatGPT θα βοηθήσει κάποιον “απλώς ένα smidge” στη δημιουργία ενός βιολογικού όπλου; Στο εκτελεστικό διάταγμα AI του Προέδρου Μπάιντεν από τον περασμένο Οκτώβριο, ο
Λευκός Οίκος
εκφράζει την ανησυχία ότι η τεχνητή νοημοσύνη θα μπορούσε «
μειώστε σημαντικά το φράγμα εισόδου
” για τη δημιουργία βιολογικών όπλων. Αντιμετωπίζοντας την
πίεση
από τους υπεύθυνους χάραξης πολιτικής, το OpenAI θα ήθελε να αμβλύνει τις ανησυχίες μας ότι τα μεγάλα γλωσσικά του μοντέλα δεν βοηθούν σχεδόν καθόλου στη δημιουργία βιοόπλων. Ωστόσο, φαίνεται ότι βοηθούν λίγο. Αλλά hey, τι είναι μερικές ποσοστιαίες μονάδες όταν το αποτέλεσμα είναι, ω, δεν ξέρω, το τέλος της ανθρωπότητας;
Το OpenAI συγκέντρωσε 50 ειδικούς βιολογίας με διδακτορικούς τίτλους και 50 φοιτητές πανεπιστημίου που έχουν παρακολουθήσει ένα μάθημα βιολογίας. Οι 100 συμμετέχοντες χωρίστηκαν σε μια ομάδα ελέγχου και μια ομάδα θεραπείας, όπου η ομάδα ελέγχου μπορούσε να χρησιμοποιήσει μόνο το Διαδίκτυο, ενώ η ομάδα θεραπείας μπορούσε να χρησιμοποιήσει το Διαδίκτυο συν GPT-4. Στη συνέχεια τους ζητήθηκε να καταλήξουν σε ένα σχέδιο για τη δημιουργία και την απελευθέρωση ενός βιοόπλου από την αρχή μέχρι το τέλος.
Στους συμμετέχοντες δόθηκε το
μοντέλο
«μόνο για έρευνα» του GPT-4, έτσι ώστε το μοντέλο να απαντά σε ερωτήσεις σχετικά με τα βιολογικά όπλα. Συνήθως, το GPT-4 δεν απαντά σε ερωτήσεις που θεωρεί επιβλαβείς. Ωστόσο, πολλοί έχουν καταλάβει πώς να κάνουν jailbreak στο ChatGPT για να αντιμετωπίσουν προβλήματα όπως αυτό.
Τα σχέδια βιοόπλων βαθμολογήθηκαν σε μια κλίμακα από 1-10 ως προς την ακρίβεια, την πληρότητα, την καινοτομία και την αποτελεσματικότητα. Οι ειδικοί της βιολογίας έδειξαν αύξηση 8,8% στην ακρίβεια στη δημιουργία ενός βιοόπλου κατά τη χρήση του GPT-4, έναντι μόνο του διαδικτύου, ενώ οι φοιτητές βιολογίας είχαν μόλις 2,5% αύξηση. Το GPT-4 είχε παρόμοια αποτελέσματα στη βελτίωση της πληρότητας των βιοόπλων, με τους ειδικούς να παρουσιάζουν βελτίωση 8,2%, ενώ οι μαθητές παρουσίασαν αύξηση 4,1% στην πληρότητα.
Η OpenAI λέει ότι αυτοί οι αριθμοί «δεν είναι αρκετά μεγάλοι για να είναι στατιστικά σημαντικοί». Φαίνεται ότι η ικανότητα του GPT-4 να παρέχει αποτελεσματικά εξειδικευμένα κομμάτια πληροφοριών μπορεί να βελτιώσει ελαφρώς την ικανότητα κάποιου να κατασκευάζει με ακρίβεια και πλήρως ένα βιοόπλο. Ωστόσο, η εταιρεία σημειώνει ότι η πρόσβαση στις πληροφορίες από μόνη της είναι ανεπαρκής για τη δημιουργία βιολογικής απειλής και δεν εξέτασαν πώς το GPT-4 θα μπορούσε να βοηθήσει στη φυσική κατασκευή μιας απειλής.
Η εταιρεία λέει ότι χρειάζεται περισσότερη έρευνα για να ξεπλυθεί πλήρως αυτή η συζήτηση. Οι πληροφορίες για τα βιοόπλα είναι σχετικά προσβάσιμες στο διαδίκτυο με ή χωρίς AI. Υπάρχει μεγάλη ανησυχία για τον κίνδυνο της τεχνητής νοημοσύνης αυτές τις μέρες, αλλά το OpenAI θέλει να είστε ήσυχοι γνωρίζοντας ότι τώρα είναι λίγο πιο εύκολο να δημιουργήσετε ένα βιοόπλο.
VIA:
gizmodo.com



