Ο Sora του OpenAI μας ωθεί ένα μαμούθ βήμα πιο κοντά προς την άβυσσο της AI



Είναι δύσκολο να γράψεις

Σόρα

χωρίς να νιώθεις ότι το μυαλό σου λιώνει. Αλλά μετά το OpenAI

έκπληξη ανακοίνωση τεχνητής νοημοσύνης

χθες το απόγευμα, έχουμε τις καλύτερες αποδείξεις μας για το τι θέλει να σας πουλήσει μια ακόμη ανεξέλεγκτη, χωρίς συνέπειες βιομηχανία τεχνολογίας: μια σουίτα προϊόντων τεχνητής νοημοσύνης με μαύρα κουτιά που διψούν για ενέργεια, ικανά να παράγουν φωτορεαλιστικά μέσα που ξεπερνούν τα όρια νομιμότητας, ιδιωτικότητας και αντικειμενική πραγματικότητα.

Εκτός αποφασιστικών, στοχαστικών και περιεκτικών ρυθμίσεων, το διαδικτυακό τοπίο θα μπορούσε κάλλιστα να γίνει ουσιαστικά μη αναγνωρίσιμο και κατά κάποιο τρόπο ακόμη πιο αναξιόπιστο από ποτέ. Μόλις εξαφανιστεί ο κατανοητός παράγοντας «ουάου» των υπερπραγματικών μάλλινων μαμούθ και των χάρτινων τεχνών στον ωκεανό, το νεότερο έργο παραμόρφωσης του CEO Sam Altman παραμένει ανησυχητικό.

Η ιδέα πίσω από το Sora (στα Ιαπωνικά σημαίνει «ουρανός») δεν είναι κάτι ιδιαίτερα καινούργιο: προφανώς είναι ένα πρόγραμμα τεχνητής νοημοσύνης ικανό να παράγει βίντεο υψηλής ευκρίνειας που βασίζεται αποκλειστικά στις περιγραφικές εισαγωγές κειμένου του χρήστη. Για να το θέσω απλά: Ο Sora φέρεται να συνδυάζει το μοντέλο διάχυσης κειμένου σε εικόνα που τροφοδοτεί το DALL-E με ένα σύστημα νευρωνικού δικτύου γνωστό ως μετασχηματιστής. Ενώ γενικά χρησιμοποιείται για την ανάλυση τεράστιων αλληλουχιών δεδομένων όπως το κείμενο, το OpenAI φέρεται να προσάρμοσε την τεχνολογία του μετασχηματιστή για να χειρίζεται τα καρέ βίντεο με παρόμοιο τρόπο.

«Προφανώς», «σύμφωνα με πληροφορίες», «δήθεν». Όλες αυτές οι επιφυλάξεις απαιτούνται κατά την περιγραφή του Sora, γιατί όπως


MIT Technology Review


εξηγεί, η OpenAI παραχώρησε πρόσβαση στα χθεσινά παραδείγματα κλιπ μόνο αφού τα μέσα ενημέρωσης συμφώνησαν να περιμένουν μετά την επίσημη ανακοίνωση της εταιρείας για να «ζητήσουν τη γνώμη εξωτερικών ειδικών». Και ακόμη και όταν OpenAI

έκανε

κάνουν προεπισκόπηση του νεότερου πειράματός τους, το έκαναν χωρίς να δημοσιεύσουν μια τεχνική αναφορά ή μια επίδειξη υποστήριξης του μοντέλου που «πραγματικά λειτουργεί».

Αυτό σημαίνει ότι, για το πιθανό μέλλον, κανένας εξωτερικός ρυθμιστικός φορέας, αιρετός αξιωματούχος, εποπτικός σκύλος της βιομηχανίας ή δημοσιογράφος χαμηλής τεχνολογίας δεν θα γνωρίζει

πως

Ο Sora αποδίδει τα πιο παράξενα μέσα που έχουν παραχθεί ποτέ από AI,

τι

δεδομένα Η εταιρεία του Altman ξέσπασε για να εκπαιδεύσει το νέο της πρόγραμμα και

πως


πολύ

απαιτείται ενέργεια για να τροφοδοτήσει αυτές τις αποδόσεις βίντεο ενός λεπτού. Είστε στο έλεος αυτού που επιλέγει να μοιραστεί το OpenAI με το κοινό – μια εταιρεία της οποίας ο Διευθύνων Σύμβουλος προειδοποίησε επανειλημμένα τον κίνδυνο εξαφάνισης από την τεχνητή νοημοσύνη

στο ίδιο επίπεδο με τον πυρηνικό πόλεμο

αλλά ότι μόνο άνδρες σαν αυτόν μπορούν να εμπιστευτούν τα κεφάλαια και τους πόρους για να αποτρέψουν αυτό το ενδεχόμενο.

Η ταχύτητα με την οποία φτάσαμε εδώ είναι τόσο ιλιγγιώδης όσο και τα ίδια τα βίντεο.


Νέος Άτλας


πρόσφερε μια σταθερή ενθυλάκωση της κατάστασης χθες — τα δείγματα κλιπ του OpenAI δεν είναι καθόλου τέλεια, αλλά σε μόλις εννέα μήνες, φύγαμε από το “

κωμικός τρόμος

» του AI Will Smith να τρώει σπαγγέτι, σε σχεδόν φωτορεαλιστικά βίντεο υψηλής ευκρίνειας που απεικονίζουν πολυσύχναστους δρόμους της πόλης, εξαφανισμένα ζώα και φανταστικούς χαρακτήρες φαντασίας παιδιών. Πώς θα μοιάζει παρόμοια τεχνολογία σε εννέα μήνες από τώρα—την παραμονή μιας πιθανώς μιας από τις πιο συνεπακόλουθες προεδρικές εκλογές των ΗΠΑ στη σύγχρονη ιστορία.

Μόλις ξεπεράσετε τις εντυπώσεις από το κόλπο του Σόρα, είναι δύσκολο να αγνοήσετε τις ανησυχητικές συνέπειες. Σίγουρα, τα βίντεο είναι τεχνολογικά θαύματα. Σίγουρα, το Sora θα μπορούσε να αποφέρει καινοτόμα, διασκεδαστικά, ακόμη και χρήσιμα αποτελέσματα. Αλλά τι θα γινόταν αν κάποιος το χρησιμοποιούσε για να υποχωρήσει, καλά,

Οτιδήποτε

εκτός από «καινοτόμο», «διασκεδαστικό» ή «χρήσιμο;» Οι άνθρωποι είναι πολύ πιο έξυπνοι από οποιοδήποτε πρόγραμμα παραγωγής τεχνητής νοημοσύνης. Μέχρι στιγμής, το jailbreaking αυτών των πραγμάτων απαιτούσε μόνο κάποια αφοσίωση, υπομονή και επιθυμία να κάμψουμε την τεχνολογία για κακή πίστη.

Εταιρείες όπως το OpenAI υπόσχονται ότι αναπτύσσουν επί του παρόντος πρωτόκολλα ασφαλείας και βιομηχανικά πρότυπα για να εμποδίσουν τους κακούς παράγοντες να εκμεταλλευτούν τον νέο τεχνολογικό μας κόσμο – μια αχαρτογράφητη περιοχή στην οποία εξακολουθούν να καταλαμβάνουν απερίσκεπτα έργα όπως το Sora. Και όμως απέτυχαν παταγωδώς στην εφαρμογή ακόμη και των πιο βασικών διασφαλίσεων: Τα Deepfakes κακοποιούν τα ανθρώπινα σώματα, οι σχολικές περιφέρειες αξιοποιούν το ChatGPT για να συναινέσει στις φασιστικές απαγορεύσεις βιβλίων και οι γραμμές μεταξύ γεγονότων και μυθοπλασίας συνεχίζουν να κηλιδώνονται.


[Related: Generative AI could face its biggest legal tests in 2024.]

Η OpenAI λέει ότι δεν υπάρχουν άμεσα σχέδια για τη δημόσια κυκλοφορία του Sora και ότι διεξάγουν δοκιμές κόκκινης ομάδας για να «αξιολογήσουν κρίσιμες περιοχές για βλάβες ή κινδύνους». Αλλά αν αποκλείσουμε κάθε είδους ρυθμιστική ώθηση, είναι πιθανό το OpenAI να απελευθερώσει το Sora το συντομότερο δυνατό.

«Το Sora χρησιμεύει ως βάση για μοντέλα που μπορούν να κατανοήσουν και να προσομοιώσουν τον πραγματικό κόσμο, μια ικανότητα που πιστεύουμε ότι θα είναι ένα σημαντικό ορόσημο για την επίτευξη [Artificial General Intelligence]», ανέφερε το OpenAI στη χθεσινή του ανακοίνωση, αναφερόμενος για άλλη μια φορά ρητά στον στόχο της εταιρείας να δημιουργήσει τεχνητή νοημοσύνη που δεν διακρίνεται καθόλου από τον άνθρωπο.

Sora, ένα μοντέλο για την κατανόηση και την προσομοίωση του πραγματικού κόσμου — ό,τι έχει απομείνει από αυτόν, τουλάχιστον.


VIA:

popsci.com


Follow TechWar.gr on Google News