Το Κογκρέσο μπορεί πράγματι να κάνει κάτι για την τεχνητή νοημοσύνη, χάρη στην Taylor Swift




Καλώς ήρθατε στο AI This Week, την εβδομαδιαία βαθιά κατάδυση του Gizmodo σχετικά με το τι συμβαίνει στην τεχνητή νοημοσύνη.

Ανησυχίες για το πορνό της τεχνητής νοημοσύνης — ή, πιο συχνά


“Deepfake Porn”


— δεν είναι καινούργια. Για χρόνια, αμέτρητες γυναίκες και κορίτσια έχουν υποστεί μια πλημμύρα μη συναινετικών πορνογραφικών εικόνων που είναι εύκολο να διανεμηθούν στο Διαδίκτυο, αλλά αρκετά δύσκολο να αφαιρεθούν. Κυρίως,


διασημότητα deepfake πορνό


υπήρξε μια συνεχής πηγή αντιπαράθεσης, μια που έχει κερδίσει συχνά την προσοχή αλλά μικρή νομοθετική έλξη. Τώρα, το

μπορεί επιτέλους να κάνει κάτι γι’ αυτό χάρη στις βρώμικες εικόνες του πιο διάσημου ποπ σταρ του κόσμου που δημιουργήθηκαν από υπολογιστή.

Ναι, ήταν μια ιστορία που ήταν δύσκολο να αποφευχθεί: πριν από μερικές εβδομάδες,

πορνογραφικές εικόνες της Taylor Swift που δημιουργήθηκαν από AI

διανεμήθηκαν ευρέως στο X (πρώην Twitter). Έκτοτε, η βάση των θαυμαστών της Swift έχει προκαλέσει σάλο και έχει προκύψει μια εθνική συζήτηση σχετικά με το γνωστό θέμα του υπολογιστή σχετικά με το τι πρέπει να κάνουμε για αυτό το πολύ οικείο πρόβλημα.

Τώρα,


έχει εισαχθεί νομοθεσία


για την καταπολέμηση του ζητήματος. Ο νόμος Disrupt Explicit Forged Images and Non-consensual Edits (DEFIANCE) εισήχθη ως δικομματική νομοθεσία από τους γερουσιαστές Dick Durbin, (D-Ill.), Josh Hawley, (R-Mo) και Lindsey Graham, (RS.C. ). Εάν τεθεί σε ισχύ, το νομοσχέδιο θα επιτρέψει στα θύματα του deepfake πορνό να μηνύσουν άτομα που διένειμαν «ψηφιακές πλαστογραφίες» αυτών που είχαν σεξουαλικό χαρακτήρα. Ο προτεινόμενος νόμος ουσιαστικά θα ανοίξει την πόρτα για δικαστικές διαφορές υψηλού προφίλ από την πλευρά των γυναικών διασημοτήτων των οποίων οι εικόνες χρησιμοποιούνται σε περιπτώσεις όπως αυτή που αφορά τη Swift. Προφανώς και άλλες γυναίκες και θύματα θα μπορούσαν να υποβάλουν μήνυση, αλλά οι πιο εύπορες, διάσημες θα είχαν τους πόρους για να διεξαγάγουν τέτοιες αγωγές.

Το νομοσχέδιο ορίζει την «ψηφιακή πλαστογραφία» ως «μια οπτική

ικόνιση που δημιουργείται μέσω της χρήσης λογισμικού, μηχανικής μάθησης, τεχνητής νοημοσύνης ή οποιουδήποτε άλλου δημιουργούμενου από υπολογιστή ή τεχνολογικού μέσου για να φαίνεται ψευδώς ότι είναι αυθεντικό».

«Αυτό το μήνα, ψεύτικες, σεξουαλικά σαφείς εικόνες του


Τέιλορ Σουίφτ


που δημιουργήθηκαν από την τεχνητή νοημοσύνη σάρωσαν τις πλατφόρμες των μέσων κοινωνικής δικτύωσης. Αν και οι εικόνες μπορεί να είναι ψεύτικες, η ζημιά στα θύματα από τη διανομή σεξουαλικά ρητά «deepfakes» είναι πολύ πραγματική», είπε ο γερουσιαστής Durbin, στο


ένα δελτίο τύπου


συνδέονται με το νομοσχέδιο. Το δελτίο τύπου σημειώνει επίσης ότι «ο όγκος του «deepfake» περιεχομένου που διατίθεται στο διαδίκτυο αυξάνεται εκθετικά καθώς η τεχνολογία που χρησιμοποιείται για τη δημιουργία του έχει γίνει πιο προσιτή στο κοινό».

Όπως αναφέρθηκε προηγουμένως, η τεχνητή νοημοσύνη ή το πορνό Deepfake είναι ένα συνεχές πρόβλημα για αρκετό καιρό, αλλά η πρόοδος στην τεχνητή νοημοσύνη τα τελευταία χρόνια έχει κάνει τη γενιά ρεαλιστικών (αν και λίγο περίεργων) πορνό


πολύ, πολύ πιο εύκολο.


Η έλευση των δωρεάν, προσβάσιμων παραγωγών εικόνων, όπως το DALL-E του OpenAI και άλλα του είδους του, σημαίνει ότι σχεδόν ο καθένας μπορεί να δημιουργήσει όποια εικόνα θέλει—ή, τουλάχιστον, μπορεί να δημιουργήσει την καλύτερη προσέγγιση του αλγορίθμου αυτού που θέλει— με το πάτημα ενός κουμπιού. Αυτό έχει προκαλέσει μια σειρά από προβλήματα, συμπεριλαμβανομένου ενός


εμφανής έκρηξη


υλικού κακοποίησης παιδιών που δημιουργείται από υπολογιστή, το οποίο οι κυβερνήσεις και οι ρυθμιστικές αρχές περιεχομένου δεν φαίνεται να γνωρίζουν πώς να καταπολεμήσουν.

Η συζήτηση γύρω από τη ρύθμιση των deepfakes έχει συζητηθεί ξανά και ξανά, αν και σοβαρές προσπάθειες για την εφαρμογή κάποιας νέας πολιτικής έχουν επανειλημμένα κατατεθεί ή εγκαταλειφθεί από το Κογκρέσο.

Υπάρχει ελάχιστος τρόπος να γνωρίζουμε αν αυτή η συγκεκριμένη προσπάθεια θα πετύχει, αν και ως Amanda Hoover στο Wired


επεσήμανε πρόσφατα


αν η Taylor Swift δεν μπορεί να νικήσει το deepfake πορνό, κανείς δεν μπορεί.

Ερώτηση της ημέρας: Μπορεί το νέο ρομπότ του Meta να καθαρίσει την κρεβατοκάμαρά σας;





OK-Robot: Home 10

Αυτή τη στιγμή διεξάγεται ένας αγώνας στη Silicon Valley για να δούμε ποιος μπορεί να δημιουργήσει το πιο

ορικά βιώσιμο ρομπότ. Ενώ οι περισσότερες εταιρείες φαίνεται να είναι απασχολημένες με

δημιουργώντας ένα τεχνητό «ανθρωποειδές» ρομπότ

που θυμίζει στους θεατές το C3PO, η Meta μπορεί να κερδίζει τον αγώνα για τη δημιουργία ενός αυθεντικά λειτουργικού ρομπότ που μπορεί να κάνει πράγματα για εσάς. Αυτή την εβδομάδα, ερευνητές που συνδέονται με την εταιρεία παρουσίασαν το OK-Robot τους, το οποίο μοιάζει με βάση λαμπτήρα συνδεδεμένο σε Roomba. Αν και η συσκευή μπορεί να φαίνεται ανόητη, το σύστημα AI που οδηγεί το μηχάνημα σημαίνει σοβαρή δουλειά. Σε πολλά βίντεο YouTube, το ρομπότ μπορεί να δει κανείς να κάνει ζουμ σε ένα ακατάστατο δωμάτιο και να μαζεύει και να μετακινεί διάφορα αντικείμενα. Οι ερευνητές λένε ότι το bot χρησιμοποιεί “Vision-Language Models (VLMs) για ανίχνευση αντικειμένων, πρωτόγονα πλοήγησης για κίνηση και σύλληψη πρωτόγονων για χειρισμό αντικειμένων”. Με άλλα λόγια, αυτό το πράγμα μπορεί να δει πράγματα, να αρπάξει πράγματα και να κινηθεί σε έναν φυσικό χώρο με αρκετή ικανότητα. Επιπλέον, το bot το κάνει αυτό σε περιβάλλοντα στα οποία δεν έχει ξαναβρεθεί – κάτι που είναι εντυπωσιακό κατόρθωμα για ένα ρομπότ, καθώς τα περισσότερα από αυτά μπορούν να εκτελούν εργασίες μόνο σε εξαιρετικά ελεγχόμενα περιβάλλοντα.

Άλλοι τίτλοι αυτής της εβδομάδας:


  • Οι εταιρείες τεχνητής νοημοσύνης μόλις έχασαν ένα σωρό αξίας μετοχών

    . Η κεφαλαιοποίηση πολλών μεγάλων εταιρειών τεχνητής νοημοσύνης έπεσε κατακόρυφα αυτή την εβδομάδα, αφού οι τριμηνιαίες εκθέσεις κερδών τους έδειξαν ότι είχαν αποφέρει σημαντικά λιγότερα έσοδα από ό,τι περίμεναν οι επενδυτές. Η μητρική εταιρεία της Google, η Alphabet, η Microsoft και η κατασκευάστρια τσιπ AMD, έγιναν μάρτυρες μαζικών εκπτώσεων την Τρίτη.



    αναφέρει ότι


    , συνολικά, οι εταιρείες έχασαν 190 δισεκατομμύρια δολάρια σε κεφαλαιοποίηση αγοράς. Σοβαρά, ναι. Είναι πολύ.

  • Η FCC μπορεί να ποινικοποιήσει τις ρομποκλήσεις που δημιουργούνται από AI

    . Η τεχνητή νοημοσύνη επέτρεψε την ανεξέλεγκτη διαδικτυακή απάτη—οι διαδικτυακές απάτες με υπερφόρτιση που ήταν ήδη ενοχλητικές, αλλά που, χάρη στις νέες μορφές αυτοματισμού, είναι τώρα χειρότερες από ποτέ. Την περασμένη εβδομάδα, ο Πρόεδρος Τζο Μπάιντεν έγινε αντικείμενο μιας ρομποτικής κλήσης που δημιουργήθηκε από AI και, ως εκ τούτου, η Ομοσπονδιακή Επιτροπή Επικοινωνιών θέλει τώρα να απαγορεύσει νομικά τέτοιες κλήσεις. «Η κλωνοποίηση φωνής και οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη ήδη σπέρνουν σύγχυση εξαπατώντας τους καταναλωτές να πιστεύουν ότι οι απάτες και οι απάτες είναι νόμιμες», δήλωσε η Jessica Rosenworcel, Πρόεδρος της FCC.


    μία δήλωση


    στάλθηκε στο NBC.

  • Η Amazon έκανε το ντεμπούτο της ως βοηθός αγορών AI

    . Η μεγαλύτερη εταιρεία ηλεκτρονικού εμπορίου στον κόσμο κυκλοφόρησε ένα chatbot εκπαιδευμένο σε τεχνητή νοημοσύνη, με το όνομα “Rufus”, το οποίο έχει σχεδιαστεί για να σας βοηθά να αγοράζετε πράγματα πιο αποτελεσματικά. Ο Ρούφους είναι


    περιγράφεται ως ένα


    «Έμπειρος βοηθός αγορών εκπαιδευμένος στον κατάλογο προϊόντων της Amazon και πληροφορίες από όλο τον ιστό για να απαντά σε ερωτήσεις πελατών σχετικά με τις ανάγκες αγορών, τα προϊόντα και τις συγκρίσεις». Ενώ μπαίνω στον πειρασμό να κοροϊδεύω αυτό το πράγμα, πρέπει να ομολογήσω: Οι αγορές μπορεί να είναι δύσκολες. Συχνά αισθάνεται ότι απαιτείται ένας γελοίος όγκος έρευνας μόνο για να πραγματοποιηθούν οι απλούστερες αγορές. Μόνο ο χρόνος θα δείξει αν ο Rufus μπορεί πραγματικά να εξοικονομήσει χρόνο από τον περιστασιακό χρήστη του ιστού ή αν θα «παραισθανθεί» κάποιες θεϊκές συμβουλές που κάνουν το ταξίδι σας στο ηλεκτρονικό εμπόριο ακόμη χειρότερο. Εάν το τελευταίο αποδειχτεί ότι ισχύει, ψηφίζω πιέζουμε την Amazon να μετονομάσει το ρομπότ σε “Doofus”.


VIA:

gizmodo.com


Follow TechWar.gr on Google News


Leave A Reply



Cancel Reply

Your email address will not be published.