Ο Sora του OpenAI είναι ένας γίγαντας «σε τσακίζει» στην πραγματικότητα
Όλοι γνωρίζουν ότι η διαδικτυακή παραπληροφόρηση είναι ένα τεράστιο πρόβλημα — που αναμφισβήτητα έχει
διχασμένες κοινότητες
χειραγωγήθηκε τις εκλογές και προκάλεσε ορισμένα τμήματα του παγκόσμιου πληθυσμού
να χάσουν τα μυαλά τους
. Φυσικά, κανείς δεν φαίνεται να ανησυχεί ιδιαίτερα για την πραγματική επίλυση αυτού του προβλήματος. Μάλιστα οι θεσμοί
πιο υπεύθυνος
για την παραπληροφόρηση στο διαδίκτυο (και, επομένως, εκείνες που είναι σε θέση να κάνουν κάτι γι’ αυτό) —δηλαδή, οι εταιρείες τεχνολογίας— φαίνεται ότι έχουν σκοπό να κάνουν ό,τι μπορούν για να επιδεινώσουν εκθετικά το πρόβλημα.
Ενδεικτική περίπτωση: OpenAI
εκτόξευσε ο Σόρα
, τη νέα της συσκευή δημιουργίας κειμένου σε βίντεο, την Πέμπτη.
Το
μοντέλο έχει σχεδιαστεί για να επιτρέπει στους χρήστες του Ιστού να δημιουργούν βίντεο υψηλής ποιότητας με
τεχνητή νοημοσύνη
μόνο με μια προτροπή κειμένου. Η εφαρμογή αυτή τη στιγμή μαγεύει το Διαδίκτυο με την παράξενη ποικιλία οπτικών εικόνων — είτε αυτό είναι
παρέλαση για την κινεζική Πρωτοχρονιά
ένας τύπος που τρέχει προς τα πίσω σε έναν διάδρομο στο σκοτάδι,
μια γάτα σε ένα κρεβάτι
ή δύο πειρατικά
πλοία
στροβιλίζεται σε ένα φλιτζάνι καφέ
.
Σε αυτό το σημείο, παρά την αποστολή του που «αλλάζει τον κόσμο», θα μπορούσε να υποστηριχθεί ότι η μεγαλύτερη συνεισφορά του OpenAI στο Διαδίκτυο ήταν η στιγμιαία
παραγωγή
αμέτρητων terabyte ψηφιακής χάλια. Όλα τα ανοιχτά και δημόσια εργαλεία της εταιρείας είναι παραγωγοί περιεχομένου, όπως:
προειδοποιούν οι ειδικοί
προορίζονται για χρήση σε εκστρατείες απάτης και παραπληροφόρησης.
Μέσα στο
ανάρτηση
σχετικά με το Sora, η ομάδα του OpenAI αναγνωρίζει ανοιχτά ότι θα μπορούσαν να υπάρχουν κάποια πιθανά μειονεκτήματα στη νέα τους εφαρμογή. Η εταιρεία είπε ότι εργάζεται σε ορισμένες τεχνολογίες υδατογράφησης για να επισημάνει περιεχόμενο που έχει δημιουργήσει η γεννήτριά της και ότι βρίσκεται στη διαδικασία διασύνδεσης με άτομα με γνώσεις για να ανακαλύψει πώς να κάνει τον αναπόφευκτο κατακλυσμό της τεχνητής νοημοσύνης που ο Sora θα απελευθερώσει λιγότερο τοξικό. Το Sora δεν είναι ακόμη ανοιχτό στο κοινό και, εν τω μεταξύ, το OpenAI λέει ότι δημιουργεί συστήματα που θα αρνούνται τους χρήστες που θέλουν να δημιουργήσουν βίαιες ή σεξουαλικές εικόνες. Στην ανακοίνωση σημειώνεται:
Θα προσελκύσουμε φορείς χάραξης πολιτικής, εκπαιδευτικούς και καλλιτέχνες σε όλο τον κόσμο για να κατανοήσουν τις ανησυχίες τους και να εντοπίσουν θετικές περιπτώσεις χρήσης αυτής της νέας τεχνολογίας. Παρά την εκτεταμένη έρευνα και τις δοκιμές, δεν μπορούμε να προβλέψουμε όλους τους ευεργετικούς τρόπους με τους οποίους οι άνθρωποι θα χρησιμοποιήσουν την τεχνολογία μας, ούτε όλους τους τρόπους με τους οποίους οι άνθρωποι θα την κάνουν κατάχρηση.
Αυτός ο τύπος πλαισίωσης του προβλήματος είναι πολύ ξεκαρδιστικός γιατί είναι ήδη εντελώς προφανές πώς θα μπορούσε ενδεχομένως να γίνει κατάχρηση του
νέο
υ εργαλείου του OpenAI. Ο Sora θα δημιουργήσει ψεύτικο περιεχόμενο σε τεράστια κλίμακα—αυτό είναι ξεκάθαρο. Κάποιο από αυτό το περιεχόμενο, φαίνεται πιθανό, θα χρησιμοποιηθεί για σκοπούς διαδικτυακής πολιτικής παραπληροφόρησης, κάποιο από αυτό θα μπορούσε, υποθετικά, να χρησιμοποιηθεί για να βοηθήσει σε μια ποικιλία απάτης και απάτης, και κάποιο θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία τοξικού περιεχομένου. Το OpenAI είπε ότι θέλει να θέσει ουσιαστικά όρια στο βίαιο και σεξουαλικό περιεχόμενο, αλλά οι χρήστες και οι ερευνητές του διαδικτύου έχουν δείξει πόσο έξυπνοι μπορούν να είναι
σε jailbreaking συστήματα AI
για τη δημιουργία των ειδών περιεχομένου που δεν υπακούουν στις πολιτικές χρήσης των εταιρειών. Όλο αυτό το περιεχόμενο του Sora θα κατακλύσει προφανώς τα κανάλια κοινωνικής δικτύωσης, καθιστώντας πιο δύσκολο για τους καθημερινούς ανθρώπους να διακρίνουν τι είναι αληθινό και τι είναι ψεύτικο και καθιστώντας το Διαδίκτυο, γενικά, πολύ πιο ενοχλητικό. Δεν νομίζω ότι χρειάζεται μια παγκόσμια ομάδα ειδικών για να το καταλάβει αυτό.
Υπάρχουν επίσης μια σειρά από άλλα προφανή μειονεκτήματα. Πρώτον, το Sora —και άλλα παρόμοια του— μάλλον δεν θα έχουν τον μεγαλύτερο περιβαλλοντικό αντίκτυπο. Οι ερευνητές έχουν δείξει ότι οι γεννήτριες κειμένου σε εικόνα
είναι πολύ χειρότερα, από περιβαλλοντική άποψη, από τα προγράμματα δημιουργίας κειμένου,
Και μόνο η δημιουργία μιας εικόνας AI απαιτεί την ίδια ποσότητα ενέργειας με την πλήρη φόρτιση του smartphone σας. Αφετέρου, οι νέες τεχνολογίες δημιουργίας κειμένου σε βίντεο πιθανότατα θα βλάψουν την οικονομία των δημιουργών βίντεο, γιατί γιατί οι εταιρείες να πληρώνουν τους ανθρώπους για τη δημιουργία οπτικού περιεχομένου όταν το μόνο που χρειάζεται για τη δημιουργία ενός βίντεο είναι το κλικ σε ένα κουμπί;
Όσον αφορά την εταιρική τάξη σε αυτή τη χώρα, τίποτα δεν έχει πραγματικά σημασία εκτός από τα χρήματα. Γαμήστε το περιβάλλον, γαμήστε τους καλλιτέχνες, γαμήστε ένα διαδίκτυο χωρίς παραπληροφόρηση, γαμήστε την υγεία του πολιτικού λόγου, γαμήστε οτιδήποτε εμποδίζει το κίνητρο του κέρδους. Οτιδήποτε μπορεί να συμπιεστεί για να βγάλει χρήματα θα πρέπει να συμπιεστεί, ακόμα κι αν είναι ένα πρόγραμμα λογισμικού του οποίου η μόνη πραγματική χρησιμότητα είναι ότι μπορεί να δημιουργήσει ένα βίντεο ενός χάμστερ καουμπόη που καβαλάει έναν δράκο. Οπως και
το έβαλε ένας χρήστης Χ
: «Για αυτό θυσιάζουν το περιβάλλον οι ηλίθιοι. Χαζος. Σκατά. Αρέσει. Αυτό.”
VIA:
gizmodo.com

