Αυτή την εβδομάδα στην τεχνητή νοημοσύνη: Η ηθική της τεχνητής νοημοσύνης συνεχίζει να παραμερίζεται
Το να συμβαδίζεις με έναν κλάδο τόσο γρήγορο όσο η τεχνητή νοημοσύνη είναι μια μεγάλη παραγγελία. Έτσι, έως ό
του
μια τεχνητή νοημοσύνη μπορεί να το κάνει για εσάς, ακολουθεί μια χρήσιμη συλλογή από πρόσφατες ιστορίες στον κόσμο της μηχανικής μάθησης, μαζί με αξιοσημείωτες έρευνες και πειράματα που δεν καλύψαμε από μόνα τους.
Αυτή την εβδομάδα στην τεχνητή νοημοσύνη, ο κύκλος των ειδήσεων επιτέλους (επιτέλους!) ηρέμησε λίγο ενόψει της εορταστικής περιόδου. Αλλά αυτό δεν σημαίνει ότι υπήρχε έλλειψη για να γράψω, μια ευλογία και μια κατάρα για αυτόν τον στερημένο ύπνο ρεπόρτερ.
Ένας συγκεκριμένος τίτλος από το AP τράβηξε την προσοχή μου σήμερα το πρωί: «Οι γεννήτριες εικόνων AI εκπαιδεύονται σε ξεκάθαρες φωτογραφίες παιδιών». Η ουσία της ιστορίας είναι, το LAION, ένα σύνολο δεδομένων που χρησιμοποιείται για την εκπαίδευση πολλών δημοφιλών δημιουργών εικόνων ανοιχτού κώδικα και εμπορικής τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Stable Diffusion και
Imagen
, περιέχει χιλιάδες εικόνες ύποπτης σεξουαλικής κακοποίησης παιδιών. Μια ομάδα επιτήρησης που εδρεύει στο Stanford, το Stanford Internet Observatory, συνεργάστηκε με φιλανθρωπικές οργανώσεις κατά της κατάχρησης για να εντοπίσει το παράνομο υλικό και να αναφέρει τους συνδέσμους στις αρχές επιβολής του νόμου.
Τώρα, η LAION, ένας μη κερδοσκοπικός οργανισμός, έχει αφαιρέσει τα δεδομένα εκπαίδευσης και δεσμεύτηκε να αφαιρέσει το προσβλητικό υλικό πριν το αναδημοσιεύσει. Αλλά το περιστατικό χρησιμεύει για να υπογραμμίσει πόσο λίγη σκέψη γίνεται για τα παραγωγικά προϊόντα τεχνητής νοημοσύνης καθώς αυξάνονται οι ανταγωνιστικές πιέσεις.
Χάρη στον πολλαπλασιασμό των εργαλείων δημιουργίας μοντέλων τεχνητής νοημοσύνης χωρίς κώδικα, γίνεται τρομερά εύκολο να εκπαιδεύσετε τη γενετική τεχνητή νοημοσύνη σε οποιοδήποτε σύνολο δεδομένων μπορείτε να φανταστείτε. Αυτό είναι ένα όφελος τόσο για τις νεοφυείς επιχειρήσεις όσο και για τους τεχνολογικούς γίγαντες να βγάλουν τέτοια μοντέλα από την πόρτα. Με το χαμηλότερο εμπόδιο εισόδου, ωστόσο, έρχεται ο πειρασμός να παραμερίσουμε την ηθική υπέρ μιας επιταχυνόμενης πορείας προς την αγορά.
Η ηθική είναι δύσκολη – δεν υπάρχει αμφιβολία. Το να αναλύσουμε τις χιλιάδες προβληματικές εικόνες στο LAION, για να πάρουμε το παράδειγμα αυτής της εβδομάδας, δεν θα συμβεί σε μια νύχτα. Και ιδανικά, η ηθική ανάπτυξη της τεχνητής νοημοσύνης περιλαμβάνει τη συνεργασία με όλους τους σχετικούς ενδιαφερόμενους φορείς, συμπεριλαμβανομένων των οργανισμών που εκπροσωπούν ομάδες που συχνά περιθωριοποιούνται και επηρεάζονται αρνητικά από τα συστήματα τεχνητής νοημοσύνης.
Ο κλάδος είναι γεμάτος από παραδείγματα αποφάσεων έκδοσης τεχνητής νοημοσύνης που λαμβάνονται με γνώμονα τους μετόχους και όχι τους ηθικούς. Πάρτε για παράδειγμα το Bing Chat (τώρα Microsoft Copilot), το chatbot της Microsoft με τεχνητή νοημοσύνη στο Bing, το οποίο στο
εκτόξευση
συνέκρινε έναν δημοσιογράφο με τον Χίτλερ και προσέβαλε την εμφάνισή τους. Από τον Οκτώβριο, το ChatGPT και ο Bard, ο ανταγωνιστής του ChatGPT της Google, ήταν ακόμη
δίνοντας
ξεπερασμένες, ρατσιστικές ιατρικές συμβουλές. Και εμφανίζεται η τελευταία έκδοση της γεννήτριας εικόνων του OpenAI DALL-E
απόδειξη
του αγγλοκεντρισμού.
Αρκεί να πούμε ότι γίνονται βλάβες στην επιδίωξη της ανωτερότητας της τεχνητής νοημοσύνης — ή τουλάχιστον της έννοιας της υπεροχής της τεχνητής νοημοσύνης της Wall Street. Ίσως με την ψήφιση των κανονισμών της
ΕΕ
για την τεχνητή νοημοσύνη, που απειλούν με πρόστιμα για μη συμμόρφωση με ορισμένα προστατευτικά κιγκλιδώματα τεχνητής νοημοσύνης, υπάρχει κάποια ελπίδα στον ορίζοντα. Αλλά ο δρόμος μπροστά είναι πραγματικά μακρύς.
Ακολουθούν μερικές άλλες αξιοσημείωτες ιστορίες AI από τις τελευταίες ημέρες:
Προβλέψεις για την τεχνητή νοημοσύνη το 2024:
Ο Ντέβιν παρουσιάζει τις προβλέψεις του για την τεχνητή νοημοσύνη το 2024, αγγίζοντας τον τρόπο με τον οποίο η τεχνητή νοημοσύνη μπορεί να επηρεάσει τις προκριματικές εκλογές στις ΗΠΑ και τι θα ακολουθήσει για το OpenAI, μεταξύ άλλων θεμάτων.
Κατά της ψευδανθρωπίας
: Ο Devin έγραψε επίσης προτείνοντας να απαγορευτεί η τεχνητή νοημοσύνη να μιμείται την ανθρώπινη συμπεριφορά.
Το Microsoft Copilot αποκτά τη δημιουργία μουσικής:
Το Copilot, το chatbot της Microsoft με τεχνητή νοημοσύνη, μπορεί πλέον να συνθέτει τραγούδια χάρη στην ενσωμάτωση με την
εφαρμογή
μουσικής GenAI Suno.
Αναγνώριση προσώπου στο Rite Aid:
Η Rite Aid έχει απαγορευτεί να χρησιμοποιεί τεχνολογία αναγνώρισης προσώπου για πέντε χρόνια, αφού η Ομοσπονδιακή Επιτροπή Εμπορίου διαπίστωσε ότι η «αλόγιστη χρήση συστημάτων παρακολούθησης προσώπου» από τον αμερικανικό κολοσσό φαρμακείων άφησε τους πελάτες να ταπεινωθούν και να θέσει σε κίνδυνο τις «ευαίσθητες πληροφορίες» τους.
Η ΕΕ προσφέρει υπολογιστικούς πόρους:
Η ΕΕ επεκτείνει το σχέδιό της, το οποίο αρχικά ανακοινώθηκε τον Σεπτέμβριο και ξεκίνησε τον περασμένο μήνα, για να υποστηρίξει εγχώριες νεοφυείς επιχειρήσεις τεχνητής νοημοσύνης παρέχοντάς τους πρόσβαση σε επεξεργαστική ισχύ για εκπαίδευση μοντέλων στους υπερυπολογιστές του μπλοκ.
Το OpenAI δίνει στο διοικητικό συμβούλιο νέες εξουσίες:
Το OpenAI επεκτείνει τις εσωτερικές του διαδικασίες ασφάλειας για να αποκρούσει την απειλή της επιβλαβούς τεχνητής νοημοσύνης. Μια νέα «συμβουλευτική ομάδα ασφάλειας» θα καθίσει πάνω από τις τεχνικές ομάδες και θα κάνει συσ
τάσεις
στην ηγεσία, και το διοικητικό συμβούλιο έχει δικαίωμα βέτο.
Q&A με τον Ken Goldberg του UC Berkeley:
Για το κανονικό του ενημερωτικό δελτίο Actuator, ο
Brian
συναντήθηκε με τον Ken Goldberg, καθηγητή στο UC Berkeley, ιδρυτή startup και καταξιωμένο ρομποτικό, για να μιλήσει για τα ανθρωποειδή ρομπότ και τις ευρύτερες τάσεις στη βιομηχανία της ρομποτικής.
Οι CIO το κάνουν αργά με το gen AI:
Ο Ron γράφει ότι, ενώ οι CIO βρίσκονται υπό πίεση να προσφέρουν το είδος των εμπειριών που βλέπουν οι άνθρωποι όταν παίζουν με το ChatGPT στο διαδίκτυο, οι περισσότεροι ακολουθούν μια σκόπιμη, προσεκτική προσέγγιση για την υιοθέτηση της τεχνολογίας για την επιχείρηση.
Οι εκδότες ειδήσεων μηνύουν την Google για τεχνητή νοημοσύνη:
Μια ομαδική αγωγή που κατατέθηκε από αρκετούς εκδότες ειδήσεων κατηγορεί την Google για «σιφόνι[ing] off» ειδησεογραφικό περιεχόμενο μέσω αντιανταγωνιστικών μέσων, εν μέρει μέσω τεχνολογίας τεχνητής νοημοσύνης όπως το Search Generative Experience (SGE) της Google και το chatbot Bard.
Συμφωνία μελανιών OpenAI με Axel Springer:
Μιλώντας για εκδότες, το OpenAI υπέγραψε συμφωνία με τον Axel Springer, τον κάτοχο εκδόσεων που εδρεύει στο Βερολίνο, συμπεριλαμβανομένων των Business Insider και Politico, για να εκπαιδεύσει τα μοντέλα τεχνητής νοημοσύνης που δημιουργούνται στο περιεχόμενο του εκδότη και να προσθέσει πρόσφατα άρθρα που δημοσιεύθηκαν από τον Axel Springer στο ChatGPT.
Η Google φέρνει τους Διδύμους σε περισσότερα μέρη:
Η Google ενσωμάτωσε τα μοντέλα Gemini της με περισσότερα από τα προϊόντα και τις υπηρεσίες της, συμπεριλαμβανομένης της πλατφόρμας AI διαχειριζόμενης με τεχνητή νοημοσύνη Vertex και του AI Studio, του εργαλείου της εταιρείας για τη δημιουργία chatbot που βασίζονται σε τεχνητή νοημοσύνη και άλλες εμπειρίες προς αυτήν την κατεύθυνση.
Περισσότερες μηχανικές εκμάθηση
Σίγουρα η πιο τρελή (και η πιο εύκολη στην παρερμηνεία) έρευνα των τελευταίων ή δύο εβδομάδων πρέπει να είναι
life2vec
, μια δανική μελέτη που χρησιμοποιεί αμέτρητα σημεία δεδομένων στη ζωή ενός ατόμου για να προβλέψει πώς είναι ένα άτομο και πότε θα πεθάνει. Χονδρικά!
Οπτικοποίηση της χαρτογράφησης του life2vec διαφόρων σχετικών εννοιών και γεγονότων της ζωής.
Η μελέτη δεν διεκδικεί ωραιακή ακρίβεια (ας πούμε ότι τρεις φορές γρήγορα, παρεμπιπτόντως) αλλά μάλλον σκοπεύει να δείξει ότι εάν οι ζωές μας είναι το άθροισμα των εμπειριών μας, αυτά τα μονοπάτια μπορούν να προεκταθούν κάπως χρησιμοποιώντας τις τρέχουσες τεχνικές μηχανικής μάθησης. Ανάμεσα στην ανατροφή, την εκπαίδευση, την εργασία, την υγεία, τα χόμπι και άλλες μετρήσεις, μπορεί κανείς εύλογα να προβλέψει όχι μόνο εάν κάποιος είναι, ας πούμε, εσωστρεφής ή εξωστρεφής, αλλά πώς αυτοί οι παράγοντες μπορεί να επηρεάσουν το προσδόκιμο ζωής. Δεν βρισκόμαστε σε επίπεδα «προεγκληματικού» εδώ, αλλά μπορείτε να στοιχηματίσετε ότι οι ασφαλιστικές εταιρείες ανυπομονούν να αδειοδοτήσουν αυτήν την εργασία.
Ένας άλλος μεγάλος ισχυρισμός έγινε από επιστήμονες της CMU που δημιούργησαν ένα σύστημα που ονομάζεται Coscientist, ένας βοηθός με βάση το LLM για ερευνητές που μπορούν να κάνουν πολλές εργαστηριακές αγγαρεία αυτόνομα. Περιορίζεται σε ορισμένους τομείς της χημείας επί του παρόντος, αλλά όπως και οι επιστήμονες, τα μοντέλα όπως αυτά θα είναι ειδικοί.
Ο επικεφαλής ερευνητής Gabe Gomes είπε στο Nature
: «Τη στιγμή που είδα μια μη οργανική νοημοσύνη να μπορεί αυτόνομα να σχεδιάσει, να σχεδιάσει και να εκτελέσει μια χημική αντίδραση που εφευρέθηκε από τον άνθρωπο, ήταν εκπληκτικό. Ήταν μια «ιερή χάλια» στιγμή». Βασικά χρησιμοποιεί ένα LLM όπως το GPT-4, ρυθμισμένο με ακρίβεια σε έγγραφα χημείας, για να εντοπίσει κοινές αντιδράσεις, αντιδραστήρια και διαδικασίες και να τις εκτελέσει. Επομένως, δεν χρειάζεται να πείτε σε έναν τεχνικό εργαστηρίου να συνθέσει 4 παρτίδες κάποιου καταλύτη — το AI μπορεί να το κάνει και δεν χρειάζεται καν να του κρατήσετε το χέρι.
Οι ερευνητές τεχνητής νοημοσύνης της Google πέρασαν επίσης μια μεγάλη εβδομάδα, βουτώντας σε μερικούς ενδιαφέροντες συνοριακούς τομείς.
FunSearch
μπορεί να ακούγεται σαν το Google για παιδιά, αλλά στην πραγματικότητα είναι συντομογραφία για την αναζήτηση συναρτήσεων, η οποία όπως το Coscientist μπορεί να κάνει και να βοηθήσει να γίνουν μαθηματικές ανακαλύψεις. Είναι ενδιαφέρον ότι για την πρόληψη των παραισθήσεων, αυτό (όπως και άλλα πρόσφατα) χρησιμοποιεί ένα ταιριαστό ζευγάρι μοντέλων τεχνητής νοημοσύνης που μοιάζει πολύ με την «παλιά» αρχιτεκτονική GAN. Ο ένας θεωρητικοποιεί, ο άλλος αξιολογεί.
Αν και το FunSearch δεν πρόκειται να κάνει πρωτοποριακές νέες ανακαλύψεις, μπορεί να πάρει ό,τι υπάρχει εκεί έξω και να το ακονίσει ή να το εφαρμόσει εκ νέου σε νέα μέρη, επομένως μια λειτουργία που χρησιμοποιεί ένας τομέας αλλά αγνοεί ένας άλλος μπορεί να χρησιμοποιηθεί για τη βελτίωση ενός βιομηχανικού προτύπου αλγόριθμος.
StyleDrop
είναι ένα εύχρηστο εργαλείο για άτομα που θέλουν να αναπαράγουν ορισμένα στυλ μέσω γενετικής εικόνων. Το πρόβλημα (όπως το βλέπει ο ερευνητής) είναι ότι εάν έχετε στο μυαλό σας ένα στυλ (πείτε “παστέλ”) και το περιγράψετε, το μοντέλο θα έχει πάρα πολλά υπο-στυλ “παστέλ” για να αντλήσει, οπότε τα αποτελέσματα θα είναι απρόβλεπτος. Το StyleDrop σάς επιτρέπει να παρέχετε ένα παράδειγμα του στυλ που σκέφτεστε και το μοντέλο θα βασίσει τη δουλειά του σε αυτό — βασικά είναι εξαιρετικά αποτελεσματική λεπτομέρεια.
Συντελεστές εικόνας:
Google
Η ανάρτηση ιστολογίου και το χαρτί δείχνουν ότι είναι αρκετά στιβαρό, εφαρμόζοντας ένα στυλ από οποιαδήποτε εικόνα, είτε πρόκειται για φωτογραφία, ζωγραφική, αστικό τοπίο ή πορτρέτο γάτας, σε οποιονδήποτε άλλο τύπο εικόνας, ακόμα και στο αλφάβητο (διαβόητα δύσκολο για κάποιο λόγο).
Η Google προχωρά επίσης στο δημιουργικό βιντεοπαιχνίδι με το VideoPoet, το οποίο χρησιμοποιεί μια βάση LLM (όπως όλα τα άλλα αυτές τις μέρες… τι άλλο θα χρησιμοποιήσετε;) για να κάνετε μια σειρά από εργασίες βίντεο, μετατρέποντας κείμενο ή εικόνες σε βίντεο, επεκτείνοντας ή στυλιζάρισμα υπάρχοντος βίντεο και ούτω καθεξής. Η πρόκληση εδώ, όπως καθιστά σαφές κάθε έργο, δεν είναι απλώς η δημιουργία μιας σειράς εικόνων που σχετίζονται μεταξύ τους, αλλά η συνοχή τους για μεγαλύτερες περιόδους (όπως περισσότερο από ένα δευτερόλεπτο) και με μεγάλες κινήσεις και αλλαγές.
Συντελεστές εικόνας:
Google
VideoPoet
μετακινεί την μπάλα μπροστά, φαίνεται, αν και όπως μπορείτε να δείτε τα αποτελέσματα είναι ακόμα αρκετά περίεργα. Αλλά έτσι προχωρούν αυτά τα πράγματα: πρώτα είναι ανεπαρκή, μετά είναι περίεργα, μετά είναι παράξενα. Προφανώς φεύγουν ασυνήθιστα κάποια στιγμή, αλλά κανείς δεν έχει φτάσει πραγματικά εκεί ακόμα.
Από την πρακτική πλευρά των πραγμάτων, Ελβετοί ερευνητές εφαρμόζουν μοντέλα τεχνητής νοημοσύνης στη μέτρηση του χιονιού. Κανονικά κάποιος θα βασιζόταν σε μετεωρολογικούς σταθμούς, αλλά αυτοί μπορεί να είναι πολύ μεταξύ τους και έχουμε όλα αυτά τα υπέροχα δορυφορικά δεδομένα, σωστά; Σωστά. Έτσι, η ομάδα του ETHZ πήρε δημόσιες δορυφορικές εικόνες από τον αστερισμό Sentinel-2, αλλά όπως το θέτει ο επικεφαλής Konrad Schindler, «Απλώς κοιτάζοντας τα λευκά κομμάτια στις δορυφορικές εικόνες δεν μας λέει αμέσως πόσο βαθύ είναι το χιόνι».
Έτσι, έβαλαν δεδομένα εδάφους για ολόκληρη τη χώρα από το Ομοσπονδιακό Γραφείο Τοπογραφίας τους (όπως το USGS μας) και εκπαίδευσαν το σύστημα να υπολογίζει όχι μόνο με βάση λευκά κομμάτια στις εικόνες, αλλά και δεδομένα αληθείας και τάσεις όπως τα μοτίβα τήξης. Η τεχνολογία που προκύπτει διατίθεται στο εμπόριο από την ExoLabs, με την οποία πρόκειται να επικοινωνήσω για να μάθω περισσότερα.
Μια λέξη προσοχής από το Στάνφορντ
, ωστόσο — όσο ισχυρές κι αν είναι εφαρμογές όπως οι παραπάνω, σημειώστε ότι καμία από αυτές δεν εμπλέκει πολύ την ανθρώπινη προκατάληψη. Όταν πρόκειται για την υγεία, αυτό ξαφνικά γίνεται μεγάλο πρόβλημα και η υγεία είναι εκεί όπου δοκιμάζονται ένας τόνος εργαλείων τεχνητής νοημοσύνης. Οι ερευνητές του Στάνφορντ έδειξαν ότι τα μοντέλα τεχνητής νοημοσύνης διαδίδουν «παλαιά ιατρικά φυλετικά τροπάρια». Το GPT-4 δεν γνωρίζει αν κάτι είναι αλήθεια ή όχι, επομένως μπορεί και παπαγαλίζει παλιούς, διαψευσμένους ισχυρισμούς σχετικά με ομάδες, όπως ότι οι μαύροι έχουν χαμηλότερη χωρητικότητα πνευμόνων. Οχι! Μείνετε προσεκτικοί εάν εργάζεστε με οποιοδήποτε είδος μοντέλου AI στην υγεία και την ιατρική.
Τέλος, ακολουθεί μια σύντομη ιστορία γραμμένη από τον Bard με σενάριο λήψης και προτροπές, απόδοση από το VideoPoet. Πρόσεχε, Pixar!
VIA:
techcrunch.com

