Η ΕΕ κατέληξε σε μια ιστορική ρυθμιστική συμφωνία για την ανάπτυξη της τεχνητής νοημοσύνης



Μετά από μια μαραθώνια συζήτηση 72 ωρών, οι νομοθέτες της Ευρωπαϊκής Ένωσης κατέληξαν την

σε μια ιστορική συμφωνία σχετικά με το εκτεταμένο νομοσχέδιο για την ανάπτυξη ασφάλειας του νόμου περί τεχνητής νοημοσύνης, το ευρύτερο και ευρύτερο είδος του μέχρι σήμερα, αναφέρει


Η Washington Post


. Οι λεπτομέρειες της ίδιας της συμφωνίας δεν ήταν άμεσα διαθέσιμες.

«Αυτή η νομοθεσία θα αντιπροσωπεύει ένα πρότυπο, ένα μοντέλο, για πολλές άλλες δικαιοδοσίες εκεί έξω», είπε ο Dragoș Tudorache, Ρουμάνος νομοθέτης που ηγείται των διαπραγματεύσεων για το AI Act.

Η Washington

,

“Που σημαίνει ότι πρέπει να έχουμε ένα επιπλέον καθήκον προσοχής όταν το συντάσσουμε γιατί θα είναι επιρροή για πολλούς άλλους.”

Οι προτεινόμενοι κανονισμοί θα υπαγορεύουν τους τρόπους με τους οποίους θα μπορούσαν να αναπτυχθούν και να διανεμηθούν μελλοντικά μοντέλα μηχανικής μάθησης εντός του εμπορικού μπλοκ, επηρεάζοντας τη χρήση τους σε εφαρμογές που κυμαίνονται από την εκπαίδευση έως την απασχόληση και την υγειονομική περίθαλψη. Η ανάπτυξη της τεχνητής νοημοσύνης θα χωριστεί σε τέσσερις κατηγορίες ανάλογα με τον κοινωνικό κίνδυνο που ενέχει η καθεμία — ελάχιστος, περιορισμένος, υψηλός και απαγορευμένος.

Οι απαγορευμένες χρήσεις θα περιλαμβάνουν οτιδήποτε παρακάμπτει τη βούληση του χρήστη, στοχεύει προστατευμένες κοινωνικές ομάδες ή παρέχει βιομετρική παρακολούθηση σε πραγματικό χρόνο (όπως η αναγνώριση προσώπου). Οι χρήσεις υψηλού κινδύνου περιλαμβάνουν οτιδήποτε “προορίζεται να χρησιμοποιηθεί ως στοιχείο ασφαλείας ενός προϊόντος” ή που πρόκειται να χρησιμοποιηθεί σε καθορισμένες εφαρμογές όπως κρίσιμες υποδομές, εκπαίδευση, νομικά/δικαστικά θέματα και πρόσληψη εργαζομένων. Chatbots όπως το ChatGPT, το Bard και το Bing εμπίπτουν στις μετρήσεις “περιορισμένου κινδύνου”.

«Η Ευρωπαϊκή Επιτροπή για άλλη μια φορά ξεκίνησε με τολμηρό τρόπο για να αντιμετωπίσει τις αναδυόμενες τεχνολογίες, όπως ακριβώς είχε κάνει με το απόρρητο δεδομένων μέσω του GDPR», είπε η Δρ. Brandie Nonnecke, Διευθύντρια του

στηρίου Πολιτικής CITRIS στο UC Berkeley, στο Engadget το 2021. «Ο προτεινόμενος κανονισμός είναι αρκετά ενδιαφέρον, καθώς επιτίθεται στο πρόβλημα με βάση μια προσέγγιση που βασίζεται στον κίνδυνο», παρόμοιο με αυτό που προτείνεται στο

Το προτεινόμενο ρυθμιστικό πλαίσιο τεχνητής νοημοσύνης του Καναδά

.

Οι συνεχείς διαπραγματεύσεις για τους προτεινόμενους κανόνες είχαν

έχει διαταραχθεί τις τελευταίες εβδομάδες

από τη Γαλλία, τη Γερμανία και την

. Αποτέλεσαν συζητήσεις για τους κανόνες που καθοδηγούν τον τρόπο με τον οποίο τα κράτη μέλη της ΕΕ θα μπορούσαν να αναπτύξουν Θεμελιώδη Μοντέλα, γενικευμένα AI από τα οποία μπορούν να βελτιωθούν οι πιο εξειδικευμένες εφαρμογές. Το GPT-4 του OpenAI είναι ένα τέτοιο θεμελιώδες μοντέλο, καθώς το ChatGPT, τα GPT και άλλες εφαρμογές τρίτων είναι όλα εκπαιδευμένα από τη βασική του λειτουργικότητα. Οι τρεις χώρες ανησυχούν ότι οι αυστηροί κανονισμοί της ΕΕ για τα παραγωγικά μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να παρεμποδίσουν τις προσπάθειες των κρατών μελών να τα αναπτύξουν ανταγωνιστικά.

Η EC είχε αντιμετωπίσει προηγουμένως τις αυξανόμενες προκλήσεις της διαχείρισης των αναδυόμενων τεχνολογιών τεχνητής νοημοσύνης μέσω ποικίλων προσπαθειών, κυκλοφόρησε και τις δύο πρώτες

Ευρωπαϊκή Στρατηγική για την ΤΝ

και

Συντονισμένο σχέδιο για την τεχνητή νοημοσύνη

το 2018, ακολουθούμενο από το

Οδηγίες για αξιόπιστη τεχνητή νοημοσύνη

το 2019. Το επόμενο έτος, η Επιτροπή εξέδωσε α

Λευκή Βίβλος για την τεχνητή νοημοσύνη

και

Έκθεση σχετικά με τις επιπτώσεις της Τεχνητής Νοημοσύνης, του Διαδικτύου των Πραγμάτων και της ρομποτικής για την ασφάλεια και την ευθύνη

.

«Η τεχνητή νοημοσύνη δεν θα πρέπει να είναι αυτοσκοπός, αλλά ένα εργαλείο που πρέπει να εξυπηρετεί τους ανθρώπους με απώτερο σκοπό την αύξηση της ανθρώπινης ευημερίας», έγραψε η Ευρωπαϊκή Επιτροπή.

σχέδια κανονισμών τεχνητής νοημοσύνης

. «Οι κανόνες για την τεχνητή νοημοσύνη που διατίθενται στην αγορά της Ένωσης ή που επηρεάζουν με άλλον τρόπο τους πολίτες της Ένωσης θα πρέπει επομένως να βάζουν τους ανθρώπους στο επίκεντρο (να είναι ανθρωποκεντρικοί), ώστε να μπορούν να εμπιστεύονται ότι η τεχνολογία χρησιμοποιείται με τρόπο ασφαλή και συμβατό με τη νομοθεσία , συμπεριλαμβανομένου του σεβασμού των θεμελιωδών δικαιωμάτων».

«Ταυτόχρονα, τέτοιοι κανόνες για την τεχνητή νοημοσύνη θα πρέπει να είναι ισορροπημένοι, αναλογικοί και να μην περιορίζουν ή εμποδίζουν άσκοπα την τεχνολογική ανάπτυξη», συνέχισε. «Αυτό έχει ιδιαίτερη σημασία γιατί, αν και η τεχνητή νοημοσύνη είναι ήδη παρούσα σε πολλές πτυχές της καθημερινής ζωής των ανθρώπων, δεν είναι δυνατό να προβλεφθούν όλες οι πιθανές χρήσεις ή εφαρμογές της που μπορεί να συμβούν στο μέλλον».

Πιο πρόσφατα, η EC άρχισε να συνεργάζεται με μέλη του κλάδου σε εθελοντική βάση για τη δημιουργία εσωτερικών κανόνων που θα επιτρέπουν στις εταιρείες και τις ρυθμιστικές αρχές να λειτουργούν σύμφωνα με τους ίδιους συμφωνημένους βασικούς κανόνες. “[Google CEO

] και συμφώνησα ότι δεν έχουμε την πολυτέλεια να περιμένουμε μέχρι να εφαρμοστεί πραγματικά ο κανονισμός για την τεχνητή νοημοσύνη και να συνεργαστούμε με όλους τους προγραμματιστές τεχνητής νοημοσύνης για να αναπτύξουμε ήδη ένα σύμφωνο τεχνητής νοημοσύνης σε εθελοντική βάση πριν από τη νόμιμη προθεσμία», δήλωσε ο επικεφαλής του κλάδου της Ευρωπαϊκής Επιτροπής (EC) Thierry Breton. ανέφερε σε δήλωση του Μαΐου.Η Ε.Κ

έχει μπει σε παρόμοιες συζητήσεις

και με εταιρείες που εδρεύουν στις ΗΠΑ.


Ανάπτυξη…


VIA:

engadget.com


Leave A Reply



Cancel Reply

Your email address will not be published.