Modern technology gives us many things.

Η OpenAI λέει ότι θα μπορούσε να «παύσει να λειτουργεί» στην ΕΕ εάν δεν μπορεί να συμμορφωθεί με μελλοντικούς κανονισμούς

Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, προειδοποίησε ότι η εταιρεία ενδέχεται να αποσύρει τις υπηρεσίες της από την ευρωπαϊκή αγορά ως απάντηση στον κανονισμό τεχνητής νοημοσύνης που αναπτύσσει η ΕΕ.

Μιλώντας σε δημοσιογράφους μετά από ομιλία στο Λονδίνο, ο Άλτμαν είπε ότι είχε «πολλές ανησυχίες» σχετικά με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, ο οποίος επί του παρόντος οριστικοποιείται από τους νομοθέτες. Οι όροι του νόμου επεκτάθηκαν τους τελευταίους μήνες για να συμπεριλάβουν νέες υποχρεώσεις για τους κατασκευαστές των λεγόμενων «μοντέλων θεμελίωσης» — συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας που τροφοδοτούν υπηρεσίες όπως το ChatGPT του OpenAI και το DALL-E.

«Οι λεπτομέρειες έχουν πραγματικά σημασία», είπε ο Άλτμαν, σύμφωνα με το a αναφορά από Οι Financial Times. «Θα προσπαθήσουμε να συμμορφωθούμε, αλλά αν δεν μπορέσουμε να συμμορφωθούμε, θα σταματήσουμε να λειτουργούμε».

Στα σχόλια αναφέρθηκε από χρόνος, ο Altman είπε ότι ανησυχεί ότι συστήματα όπως το ChatGPT θα χαρακτηρίζονται «υψηλού κινδύνου» σύμφωνα με τη νομοθεσία της ΕΕ. Αυτό σημαίνει ότι το OpenAI θα πρέπει να πληροί ορισμένες απαιτήσεις ασφάλειας και διαφάνειας. «Είτε θα μπορέσουμε να λύσουμε αυτές τις απαιτήσεις είτε όχι», είπε ο Άλτμαν. “[T]εδώ υπάρχουν τεχνικά όρια σε ό,τι είναι δυνατό».

Εκτός από τις τεχνικές προκλήσεις, οι γνωστοποιήσεις που απαιτούνται βάσει του νόμου της ΕΕ για την τεχνητή νοημοσύνη παρουσιάζουν επίσης πιθανές επιχειρηματικές απειλές για το OpenAI. Μια διάταξη στο τρέχον προσχέδιο απαιτεί από τους δημιουργούς των μοντέλων θεμελίωσης να αποκαλύπτουν λεπτομέρειες σχετικά με το σχεδιασμό του συστήματός τους (συμπεριλαμβανομένης της “υπολογιστικής ισχύος που απαιτείται, του χρόνου εκπαίδευσης και άλλων σχετικών πληροφοριών που σχετίζονται με το μέγεθος και την ισχύ του μοντέλου”) και να παρέχουν “περιλήψεις δεδομένων που προστατεύονται από πνευματικά δικαιώματα χρησιμοποιείται για προπόνηση».

Το OpenAI συνήθιζε να μοιράζεται αυτού του είδους τις πληροφορίες, αλλά σταμάτησε καθώς τα εργαλεία του έγιναν όλο και πιο πολύτιμα εμπορικά. Τον Μάρτιο, ο συνιδρυτής του Open AI Ilya Sutskever είπε Το χείλος ότι η εταιρεία είχε κάνει λάθος να αποκαλύψει τόσα πολλά στο παρελθόν και ότι η διατήρηση μυστικών πληροφοριών όπως οι μέθοδοι εκπαίδευσης και οι πηγές δεδομένων ήταν απαραίτητο για να σταματήσει η αντιγραφή της εργασίας της από τους ανταγωνιστές.

Εκτός από την πιθανή επιχειρηματική απειλή, ο εξαναγκασμός του OpenAI να προσδιορίσει τη χρήση δεδομένων που προστατεύονται από πνευματικά δικαιώματα θα εκθέσει την εταιρεία σε πιθανές αγωγές. Τα παραγωγικά συστήματα τεχνητής νοημοσύνης όπως το ChatGPT και το DALL-E εκπαιδεύονται χρησιμοποιώντας μεγάλες ποσότητες δεδομένων που έχουν αφαιρεθεί από τον ιστό, μεγάλο μέρος των οποίων προστατεύεται από πνευματικά δικαιώματα. Όταν οι εταιρείες αποκαλύπτουν αυτές τις πηγές δεδομένων, τις αφήνει ανοιχτές σε νομικές προκλήσεις. Ο ανταγωνιστής του OpenAI Stability AI, για παράδειγμα, βρίσκεται επί του παρόντος μήνυση από τον κατασκευαστή εικόνων Getty Images για χρήση των δεδομένων που προστατεύονται από πνευματικά δικαιώματα για την εκπαίδευση της γεννήτριας εικόνων AI.

Τα πρόσφατα σχόλια από την Altman βοηθούν να συμπληρωθεί μια πιο λεπτή εικόνα της επιθυμίας της εταιρείας για ρύθμιση. Ο Άλτμαν είπε στους πολιτικούς των ΗΠΑ ότι η ρύθμιση θα πρέπει να ισχύει κυρίως για μελλοντικά, πιο ισχυρά συστήματα τεχνητής νοημοσύνης. Αντίθετα, ο νόμος της ΕΕ για την τεχνητή νοημοσύνη επικεντρώνεται πολύ περισσότερο στις τρέχουσες δυνατότητες του λογισμικού τεχνητής νοημοσύνης.



theverge.com

Follow TechWar.gr on Google News

Απάντηση