Πρέπει το άρθρο 230 να προστατεύει τις εταιρείες τεχνητής νοημοσύνης από το να μην υφίστανται μήνυση λόγω ύπαρξης;




Καλώς ήρθατε στο AI This Week, την εβδομαδιαία βαθιά κατάδυση του Gizmodo σχετικά με το τι συμβαίνει στην τεχνητή νοημοσύνη.

Αυτή την εβδομάδα, υπήρξαν φωνές ότι α


δικομματικό νομοσχέδιο


που θα απαγόρευε τις πλατφόρμες τεχνητής νοημοσύνης από την προστασία σύμφωνα με την Ενότητα 230


γίνεται γρήγορα


. Ο ορόσημος νόμος για το Διαδίκτυο προστατεύει τους ιστότοπους από νομική ευθύνη για το περιεχόμενο που φιλοξενούν και οι επιπτώσεις του για την τύχη της τεχνητής νοημοσύνης είναι ασαφείς. Η νομοθεσία, που συντάχθηκε από τους γερουσιαστές

(R-Mo.) και Richard Blumenthal (D-Conn.), θα αφαιρούσε την «ασυλία από τις εταιρείες τεχνητής νοημοσύνης» όταν πρόκειται για αστικές αξιώσεις ή ποινικές διώξεις.


ένα δελτίο τύπου


από το γραφείο του Hawley ισχυρίζεται. Είναι μια ακόμη υπενθύμιση ότι η τεχνητή νοημοσύνη είναι μια πραγματική φωλιά από ακανθώδη νομικά και ρυθμιστικά ζητήματα που δεν έχουν ακόμη επιλυθεί.

Σε γενικές γραμμές, η Ενότητα 230 σχεδιάστηκε για να προστατεύει τις πλατφόρμες του Διαδικτύου από μηνύσεις για το περιεχόμενο που δημιουργείται από τρίτα μέρη. Ενώ οι μεμονωμένοι χρήστες αυτών των πλατφορμών μπορεί να είναι υπεύθυνοι για τα πράγματα που δημοσιεύουν στο διαδίκτυο, οι ίδιες οι πλατφόρμες τυγχάνουν νομικής ασυλίας στις περισσότερες περιπτώσεις. Ο νόμος αναπτύχθηκε σε μεγάλο βαθμό τη δεκαετία του 1990


ως τρόπο προστασίας του αναδυόμενου Διαδικτύου


καθώς οι ρυθμιστικές αρχές φαίνεται να έχουν συνειδητοποιήσει ότι ο Ιστός δεν θα επιβίωνε εάν όλες οι μηχανές αναζήτησης και οι πίνακες μηνυμάτων του είχαν μηνυθεί για να εξαφανιστούν.

Βέβαια, οι εποχές έχουν αλλάξει από τότε που ψηφίστηκε ο νόμος το 1996 και υπήρξαν


συνεχείς εκκλήσεις για μεταρρύθμιση του άρθρου 230


τα τελευταία χρόνια. Όταν πρόκειται για την τεχνητή νοημοσύνη, φαίνεται να υπάρχουν κάθε είδους επιχειρήματα για το γιατί (ή γιατί όχι) πλατφόρμες όπως το ChatGPT δεν πρέπει να καλύπτονται από τη νομοθεσία ορόσημο.

Έχουμε ήδη δει τον εξέχοντα καθηγητή νομικής Jonathan Turley να παραπονιέται για το ChatGPT


ψευδώς ισχυρίστηκε ότι είχε παρενοχλήσει σεξουαλικά κάποιον


. Η απειλή αγωγών συκοφαντικής δυσφήμισης ή άλλων νομικών ευθυνών κρέμεται πάνω από κάθε εταιρεία που αναπτύσσει προϊόντα τεχνητής νοημοσύνης αυτή τη στιγμή, και μάλλον είναι καιρός να δημιουργήσουμε κάποια νέα προηγούμενα.

Ο Matt Perault, καθηγητής στο Πανεπιστήμιο της Βόρειας Καρολίνας στο Chapel Hill,


έγραψε ένα δοκίμιο


τον Φεβρουάριο υποστηρίζοντας ότι οι εταιρείες τεχνητής νοημοσύνης δεν θα καλύπτονταν από την Ενότητα 230 — τουλάχιστον, όχι συνεχώς. Σύμφωνα με την άποψη του Perault για τα πράγματα, οι πλατφόρμες τεχνητής νοημοσύνης έχουν ξεχωρίσει από πλατφόρμες όπως η Google ή το Facebook, όπου το περιεχόμενο φιλοξενείται παθητικά. Αντίθετα, εταιρείες όπως το OpenAI εμπορεύονται ανοιχτά τα προϊόντα τους


ως παραγωγοί περιεχομένου


κάτι που φαίνεται να τους αποκλείει από την προστασία βάσει του νόμου.

“Η διάκριση αυτή τη στιγμή μεταξύ πλατφορμών που μπορούν να λάβουν προστασία 230 και αυτών που δεν μπορούν είναι βασικά: Είστε οικοδεσπότης ή είστε δημιουργός περιεχομένου;” είπε ο Perault σε ένα τηλεφώνημα. “Ο τρόπος που ο νόμος ορίζει αυτόν τον όρο είναι εάν δημιουργείτε ή αναπτύσσετε περιεχόμενο “εν όλω ή εν μέρει”. Αυτό σημαίνει ότι ακόμα κι αν αναπτύξετε περιεχόμενο «εν μέρει», δεν μπορείτε να λάβετε 230 προστασίες. Επομένως, η άποψή μου είναι ότι ένα εργαλείο δημιουργίας τεχνητής νοημοσύνης, όπου το όνομα του εργαλείου είναι κυριολεκτικά «γεννητικό» – η όλη ιδέα είναι ότι δημιουργεί περιεχόμενο – τότε πιθανότατα, τουλάχιστον σε ορισμένες περιπτώσεις, δεν πρόκειται να λάβει 230 προστασίες.»

Ο Samir Jain, αντιπρόεδρος πολιτικής στο Κέντρο για τη Δημοκρατία και την Τεχνολογία, είπε ότι επίσης αισθάνεται ότι θα υπάρξουν περιπτώσεις όπου μια πλατφόρμα AI θα μπορούσε να θεωρηθεί υπεύθυνη για τα πράγματα που δημιουργεί. «Πιστεύω ότι πιθανότατα θα εξαρτηθεί από τα γεγονότα κάθε συγκεκριμένης κατάστασης», πρόσθεσε ο Jain. «Στην περίπτωση κάτι σαν

μια “ψευδαίσθηση”,

στην οποία ο αλγόριθμος παραγωγής τεχνητής νοημοσύνης φαίνεται να έχει δημιουργήσει κάτι από ολόκληρο ύφασμα, θα είναι πιθανώς δύσκολο να υποστηρίξουμε ότι δεν έπαιξε τουλάχιστον κάποιο ρόλο στην ανάπτυξη αυτού».

Ταυτόχρονα, θα μπορούσαν να υπάρχουν και άλλες περιπτώσεις όπου θα μπορούσε να υποστηριχθεί ότι ένα εργαλείο τεχνητής νοημοσύνης δεν ενεργεί απαραίτητα ως δημιουργός περιεχομένου. «Αν, από την άλλη πλευρά, αυτό που παράγει η γενετική τεχνητή νοημοσύνη μοιάζει πολύ περισσότερο με τα αποτελέσματα ενός ερωτήματος αναζήτησης ως απόκριση στα στοιχεία ενός χρήστη ή όπου ο χρήστης ήταν πραγματικά αυτός που διαμορφώνει την απάντηση από το σύστημα παραγωγής τεχνητής νοημοσύνης, τότε φαίνεται πιθανό ότι το Άρθρο 230 θα μπορούσε να εφαρμοστεί σε αυτό το πλαίσιο», είπε ο Jain. «Πολλά θα εξαρτηθούν από τα συγκεκριμένα γεγονότα [of each

] και δεν είμαι σίγουρος αν θα υπάρξει μια απλή, απλή απάντηση «ναι» ή «όχι» σε αυτή την ερώτηση».

Άλλοι έχουν υποστηρίξει την ιδέα ότι οι πλατφόρμες τεχνητής νοημοσύνης δεν θα προστατεύονται από την Ενότητα 230.


ένα δοκίμιο για το TechDirt


, ο δικηγόρος και τεχνολόγος Jess Miers υποστηρίζει ότι υπάρχει νομικό προηγούμενο να θεωρούνται οι πλατφόρμες τεχνητής νοημοσύνης εκτός της κατηγορίας του «πάροχου περιεχομένου πληροφοριών» ή του δημιουργού περιεχομένου. Αναφέρει αρκετές νομικές υποθέσεις που φαίνεται να παρέχουν έναν οδικό χάρτη για ρυθμιστική προστασία για την τεχνητή νοημοσύνη, υποστηρίζοντας ότι προϊόντα όπως το ChatGPT θα μπορούσαν να θεωρηθούν «λειτουργικά παρόμοια με τις «συνηθισμένες μηχανές αναζήτησης» και την τεχνολογία πρόβλεψης όπως η αυτόματη συμπλήρωση».

Οι πηγές με τις οποίες μίλησα φάνηκαν δύσπιστες ότι οι νέοι κανονισμοί θα ήταν ο απόλυτος κριτής της προστασίας του Άρθρου 230 για τις πλατφόρμες τεχνητής νοημοσύνης — τουλάχιστον όχι στην αρχή. Με άλλα λόγια: φαίνεται απίθανο η νομοθεσία των Hawley και Blumenthal να καταφέρει να διευθετήσει το θέμα. Κατά πάσα πιθανότητα, είπε ο Perault, αυτά τα ζητήματα πρόκειται να διευθετηθούν από το δικαστικό σύστημα πριν λάβει χώρα κάθε είδους ολοκληρωμένη νομοθετική δράση. «Χρειαζόμαστε το Κογκρέσο να παρέμβει και να περιγράψει πώς θα πρέπει να είναι οι κανόνες του δρόμου σε αυτόν τον τομέα», είπε, ενώ πρόσθεσε ότι, προβληματικά, «το Κογκρέσο δεν είναι επί του παρόντος ικανό να νομοθετεί».

Ερώτηση της ημέρας: Ποιο είναι το πιο αξιομνημόνευτο

στην ιστορία του κινηματογράφου;

φωτογραφία

:

Rozy Ghaly

(

Shutterstock

)


Αυτή είναι μια παλιά και ομολογουμένως τετριμμένη ερώτηση, αλλά εξακολουθεί να αξίζει να ρωτάτε κάθε τόσο. Με τον όρο «ρομπότ», εννοώ οποιονδήποτε χαρακτήρα σε ταινία

που δεν είναι ανθρώπινη μηχανή. Θα μπορούσε να είναι ένα πρόγραμμα λογισμικού ή θα μπορούσε να είναι ένα πλήρες cyborg. Υπάρχουν, φυσικά, οι συνήθεις διεκδικητές — HAL από

2001: A Space Odyssey,

ο Εξολοθρευτής και ο Ρόι Μπάτι από

Blade Runner

— αλλά υπάρχουν και πολλά άλλα, σε μεγάλο βαθμό ξεχασμένα δυναμικά. ο



το franchise, για παράδειγμα, είναι κάπως κάτω από το ραντάρ όταν πρόκειται για αυτή τη συζήτηση, αλλά σχεδόν κάθε ταινία της σειράς


διαθέτει ένα αξέχαστο android


που έπαιξε ένας πολύ καλός ηθοποιός. Υπάρχει και του Alex Garland

Ex Machina

, το αγαπημένο A24 που εμφανίζει την Alicia Vikander ως σαγηνευτική fembot. Έχω επίσης ένα soft spot για

M3GAN,

η ταινία του 2022 που είναι βασικά

Παιδικό παιχνίδι

με ρομπότ. Ακούστε στα σχόλια εάν έχετε σκέψεις για αυτό το πιο σημαντικό θέμα.

Περισσότερα πρωτοσέλιδα αυτή την εβδομάδα


  • Η Google φαίνεται να έχει εξαπατήσει κατά τη διάρκεια της επίδειξης Gemini αυτή την εβδομάδα

    . Σε περίπτωση που το χάσατε, η Google έχει ξεκινήσει ένα

    νέο πολυτροπικό μοντέλο AI — Gemini

    —το οποίο ισχυρίζεται ότι είναι το πιο ισχυρό μοντέλο AI της μέχρι τώρα. Το πρόγραμμα έχει προκηρυχθεί ως πιθανός ανταγωνιστής του ChatGPT, με τους θεατές να σημειώνουν τις εντυπωσιακές δυνατότητές του. Ωστόσο, έχει αποκαλυφθεί ότι

    Η Google εξαπάτησε κατά την αρχική της επίδειξη της πλατφόρμας

    . ΕΝΑ


    βίντεο


    που κυκλοφόρησε από την εταιρεία την Τετάρτη φαινόταν να επιδεικνύει τις δεξιότητες του Gemini, αλλά αποδεικνύεται ότι το βίντεο ήταν επεξεργασμένο και ότι το chatbot δεν λειτουργούσε τόσο απρόσκοπτα όσο φαινόταν να δείχνει το βίντεο. Αυτό προφανώς


    δεν είναι η πρώτη φορά που μια εταιρεία τεχνολογίας εξαπατά κατά τη διάρκεια μιας επίδειξης προϊόντος


    αλλά σίγουρα είναι λίγο παραπάτημα για την Google, λαμβάνοντας υπόψη τη διαφημιστική εκστρατεία γύρω από αυτό το νέο μοντέλο.

  • Οι προτεινόμενοι κανονισμοί της ΕΕ για την τεχνητή νοημοσύνη βρίσκονται υπό κρίσιμες διαπραγματεύσεις αυτή τη στιγμή.

    Η Ευρωπαϊκή Ένωση προσπαθεί επί του παρόντος να βρει στο σφυρί τις λεπτομέρειες του ορόσημου «Νόμου AI», που θα αντιμετωπίσει τις πιθανές βλάβες της τεχνητής νοημοσύνης. Σε αντίθεση με τις ΗΠΑ, όπου—εκτός

    ένα ελαφρύ εκτελεστικό διάταγμα

    από την κυβέρνηση Μπάιντεν — η κυβέρνηση έχει αναμενόμενα αποφασίσει να αφήσει τις εταιρείες τεχνολογίας να κάνουν ό,τι θέλουν, η ΕΕ προσπαθεί στην πραγματικότητα να κάνει διακυβέρνηση τεχνητής νοημοσύνης. Ωστόσο, αυτές οι προσπάθειες αποτυγχάνουν, κάπως. Αυτή την εβδομάδα,


    μαραθώνιες διαπραγματεύσεις


    σχετικά με το περιεχόμενο του νομοσχεδίου δεν προέκυψε συναίνεση σε ορισμένα από τα βασικά στοιχεία της νομοθεσίας.

  • Το πρώτο «εργοστάσιο ανθρωποειδών ρομπότ» στον κόσμο πρόκειται να ανοίξει. WTF σημαίνει αυτό;

    Ένα νέο εργοστάσιο στο Σάλεμ του Όρεγκον πρόκειται να ανοίξει, ο μοναδικός σκοπός του οποίου είναι η κατασκευή «ανθρωποειδών ρομπότ». Τι σημαίνει αυτό ακριβώς; Σημαίνει ότι, πολύ σύντομα, οι εργαζόμενοι στην αποθήκη της Amazon μπορεί να μείνουν χωρίς δουλειά. Πράγματι, Αξιός


    Αναφορές


    ότι


    τα εν λόγω ρομπότ


    έχουν σχεδιαστεί για να «βοηθήσουν την Amazon και άλλες γιγάντιες εταιρείες με επικίνδυνες μεταφορές, ανύψωση και μετακίνηση». Η εταιρεία πίσω από τα bots, Agility Robots, θα ανοίξει τις εγκαταστάσεις της κάποια στιγμή το επόμενο έτος και σχεδιάζει να παράγει περίπου 10.000 ρομπότ ετησίως.


VIA:

gizmodo.com


Leave A Reply



Cancel Reply

Your email address will not be published.