Το OpenAI θέλει το GPT-4 να λύσει το δίλημμα της εποπτείας περιεχομένου
Το
OpenAI
είναι πεπεισμένο ότι η τεχνολογία του μπορεί να βοηθήσει στην επίλυση ενός από τα δυσκολότερα προβλήματα της τεχνολογίας:
μετριασμός περιεχομένου σε κλίμακα
. Το GPT-4 θα μπορούσε να αντικαταστήσει δεκάδες χιλιάδες ανθρώπους μεσολαβητές, ενώ είναι σχεδόν το ίδιο ακριβές και πιο συνεπές, ισχυρίζεται το OpenAI. Αν αυτό είναι αλήθεια, οι πιο τοξικές και ψυχικά επιβαρυντικές εργασίες στην τεχνολογία θα μπορούσαν να ανατεθούν σε μηχανές.
Σε μια ανάρτηση στο blog
, η OpenAI ισχυρίζεται ότι έχει ήδη χρησιμοποιήσει το GPT-4 για την ανάπτυξη και τη βελτίωση των δικών της πολιτικών περιεχομένου, την επισήμανση περιεχομένου και τη λήψη αποφάσεων. «Θέλω να δω περισσότερους ανθρώπους να λειτουργούν με την εμπιστοσύνη και την ασφάλειά τους και το μέτρο [in] με αυτόν τον τρόπο», δήλωσε η επικεφαλής των συστημάτων ασφαλείας του OpenAI, Lilian Weng
είπε
Semafor
. “Αυτό είναι ένα πραγματικά καλό βήμα προς τα εμπρός στον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη για να λύσουμε ζητήματα του πραγματικού κόσμου με τρόπο που είναι επωφελής για την κοινωνία.”
Το OpenAI βλέπει τρία σημαντικά οφέλη σε σύγκριση με τις παραδοσιακές προσεγγίσεις για τον έλεγχο περιεχομένου. Πρώτον, ισχυρίζεται ότι οι άνθρωποι ερμηνεύουν τις πολιτικές διαφορετικά, ενώ οι μηχανές είναι συνεπείς στις κρίσεις τους. Αυτές οι οδηγίες μπορεί να είναι μακριές όσο ένα βιβλίο και να αλλάζουν συνεχώς. Αν και χρειάζεται πολλή εκπαίδευση στους ανθρώπους για να μάθουν και να προσαρμοστούν, το OpenAI υποστηρίζει ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να εφαρμόσουν νέες πολιτικές αμέσως.
Δεύτερον, το GPT-4 μπορεί να βοηθήσει στην ανάπτυξη μιας νέας
πολιτική
ς μέσα σε λίγες ώρες. Η διαδικασία σύνταξης, επισήμανσης, συλλογής σχολίων και τελειοποίησης διαρκεί συνήθως εβδομάδες ή αρκετούς μήνες. Τρίτον, το OpenAI αναφέρει την ευημερία των εργαζομένων που εκτίθενται συνεχώς σε επιβλαβές περιεχόμενο, όπως βίντεο κακοποίησης παιδιών ή βασανιστηρίων.
Το OpenAI μπορεί να βοηθήσει σε ένα πρόβλημα που η δική του τεχνολογία έχει επιδεινώσει
Μετά από σχεδόν δύο δεκαετίες σύγχρονων μέσων κοινωνικής δικτύωσης και ακόμη περισσότερα χρόνια διαδικτυακών κοινοτήτων, η εποπτεία περιεχομένου εξακολουθεί να είναι μια από τις πιο δύσκολες προκλήσεις για τις διαδικτυακές
πλατφόρμες
. Η Meta, η Google και το TikTok βασίζονται σε στρατιές συντονιστών που πρέπει να κοιτάξουν μέσα από φρικτό και συχνά τραυματικό περιεχόμενο. Οι περισσότεροι από αυτούς βρίσκονται σε αναπτυσσόμενες χώρες με χαμηλότερους μισθούς, εργάζονται σε εταιρείες εξωτερικής ανάθεσης και αγωνίζονται με την ψυχική υγεία καθώς λαμβάνουν μόνο ένα ελάχιστο ποσό φροντίδας ψυχικής υγείας.
Ωστόσο, το ίδιο το OpenAI βασίζεται σε
μεγάλο
βαθμό στους clickworkers και στην ανθρώπινη
εργασία
. Χιλιάδες άνθρωποι, πολλοί από αυτούς σε αφρικανικές χώρες όπως η Κένυα, σχολιάζουν και επισημαίνουν περιεχόμενο. Τα κείμενα μπορεί να είναι ενοχλητικά, η δουλειά είναι αγχωτική,
και η αμοιβή είναι φτωχή
.
Ενώ το OpenAI διαφημίζει την προσέγγισή του ως νέα και επαναστατική, η τεχνητή νοημοσύνη χρησιμοποιείται για την εποπτεία περιεχομένου εδώ και χρόνια. Το όραμα του Μαρκ Ζάκερμπεργκ για ένα τέλειο αυτοματοποιημένο σύστημα δεν έχει ακόμη φανεί αρκετά, αλλά το Meta χρησιμοποιεί αλγόριθμους για να μετριάσει τη συντριπτική πλειοψηφία του επιβλαβούς και παράνομου περιεχομένου. Πλατφόρμες όπως το YouTube και το TikTok βασίζονται σε παρόμοια συστήματα, επομένως η τεχνολογία του OpenAI μπορεί να απευθύνεται σε μικρότερες εταιρείες που δεν διαθέτουν τους πόρους για να αναπτύξουν τη δική τους τεχνολογία.
Κάθε πλατφόρμα παραδέχεται ανοιχτά ότι η τέλεια εποπτεία περιεχομένου σε κλίμακα είναι αδύνατη. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη, και ενώ το ποσοστό μπορεί να είναι χαμηλό, εξακολουθούν να υπάρχουν εκατομμύρια επιβλαβείς αναρτήσεις που ξεφεύγουν και άλλα τόσα κομμάτια αβλαβούς περιεχομένου που κρύβονται ή διαγράφονται.
Συγκεκριμένα, η γκρίζα περιοχή του παραπλανητικού, εσφαλμένου και επιθετικού περιεχομένου που δεν είναι απαραίτητα παράνομο αποτελεί μεγάλη πρόκληση για τα αυτοματοποιημένα συστήματα. Ακόμη και οι ειδικοί στον άνθρωπο αγωνίζονται να επισημάνουν τέτοιες αναρτήσεις και οι μηχανές συχνά το κάνουν λάθος. Το ίδιο ισχύει για τη σάτιρα ή τις εικόνες και τα βίντεο που τεκμηριώνουν εγκλήματα ή αστυνομική βία.
Στο τέλος, το OpenAI μπορεί να βοηθήσει στην αντιμετώπιση ενός προβλήματος που η δική του τεχνολογία έχει επιδεινώσει. Η γενετική τεχνητή νοημοσύνη όπως το ChatGPT ή ο δημιουργός εικόνων της εταιρείας, DALL-E, διευκολύνει πολύ τη δημιουργία παραπληροφόρησης σε κλίμακα και τη διάδοσή της στα μέσα κοινωνικής δικτύωσης. Αν και το OpenAI έχει υποσχεθεί να κάνει το ChatGPT πιο αληθινό, το GPT-4 εξακολουθεί να παράγει πρόθυμα ψεύδη και παραπληροφόρηση που σχετίζονται με ειδήσεις.
