Modern technology gives us many things.

Η Anthropic παρουσιάζει το νέο «Σύνταγμα» για την τεχνητή νοημοσύνη στην ίδια την αστυνομία

Τα συστήματα chatbot AI είναι τόσο τεράστια και περίπλοκα που ακόμη και οι εταιρείες που τα κατασκευάζουν δεν μπορούν να προβλέψουν τη συμπεριφορά τους. Αυτό οδήγησε σε μια μεγάλη προσπάθεια να σταματήσουν τα chatbot να φτύνουν περιεχόμενο που είναι επιβλαβές, παράνομο ή απλώς ανησυχητικό, κάτι που κάνουν συχνά. Οι τρέχουσες λύσεις περιλαμβάνουν ένα στρατός χαμηλόμισθων εργαζομένων δίνοντας σχόλια στους αλγόριθμους σχετικά με τις απαντήσεις του chatbot, αλλά υπάρχει μια νέα προτεινόμενη λύση από Ανθρωπικό, μια εταιρεία έρευνας AI που ξεκίνησε από πρώην υπαλλήλους του OpenAI. Η Anthropic δημοσίευσε ένα «σύνταγμα» AI την Τρίτη. Σύμφωνα με την εταιρεία, θα επιτρέψει στα chatbots να αυτοδιοικηθούν, αποφεύγοντας την επιβλαβή συμπεριφορά και παράγοντας πιο ηθικά αποτελέσματα.

«Ο τρόπος με τον οποίο λειτουργεί το Συνταγματικό AI είναι ότι το σύστημα τεχνητής νοημοσύνης εποπτεύει τον εαυτό του, με βάση μια συγκεκριμένη λίστα συνταγματικών αρχών», δήλωσε ο Jared Kaplan, συνιδρυτής της Anthropic. Πριν απαντήσει στις προτροπές των χρηστών, η τεχνητή νοημοσύνη εξετάζει τις πιθανές απαντήσεις και χρησιμοποιεί τις οδηγίες του καταστατικού για να κάνει την καλύτερη επιλογή — τουλάχιστον θεωρητικά. Υπάρχει ακόμα κάποια ανθρώπινη ανατροφοδότηση που εμπλέκεται με το σύστημα της Anthropic, είπε ο Kaplan, αλλά πολύ λιγότερη από την τρέχουσα ρύθμιση.

«Σημαίνει ότι δεν χρειάζεσαι πλήθη οι εργαζόμενοι να ταξινομήσουν τις επιβλαβείς εκροές για να διορθώσουν ουσιαστικά το μοντέλο», είπε ο Kaplan. «Μπορείτε να κάνετε αυτές τις αρχές πολύ σαφείς και μπορείτε να τις αλλάξετε πολύ γρήγορα. Βασικά, μπορείτε απλώς να ζητήσετε από το μοντέλο να αναγεννήσει τα δικά του δεδομένα εκπαίδευσης και το είδος της επανεκπαίδευσης».

Το σύνταγμα της Anthropic είναι μια λίστα με 58 υψηλές αρχές που βασίζονται σε πηγές, όπως η Οικουμενική Διακήρυξη των Ανθρωπίνων Δικαιωμάτων των Ηνωμένων Εθνών, οι όροι υπηρεσίας της Apple, οι κανόνες που αναπτύχθηκαν από την Google και η έρευνα της ίδιας της Anthropic. Το μεγαλύτερο μέρος του συντάγματος περιστρέφεται γύρω από στόχους που θα περιμένατε από μια μεγάλη εταιρεία τεχνολογίας το 2023 (δηλ. όχι ρατσισμός, παρακαλώ). Αλλά μερικά από αυτά είναι λιγότερο προφανή, και ακόμη και λίγο περίεργα.

Για παράδειγμα, το σύνταγμα ζητά από την τεχνητή νοημοσύνη να αποφεύγει τα στερεότυπα και να επιλέγει απαντήσεις που αποφεύγουν τον ρατσισμό, τον σεξισμό, την «τοξικότητα» και την κατά τα άλλα μεροληπτική γλώσσα. Λέει στην τεχνητή νοημοσύνη να αποφεύγει να δίνει ιατρικές, οικονομικές ή νομικές συμβουλές και να απομακρύνεται από απαντήσεις που ενθαρρύνουν «παράνομη, ανήθικη ή ανήθικη δραστηριότητα». Το σύνταγμα ζητά επίσης απαντήσεις που είναι πιο κατάλληλες για τα παιδιά.

Υπάρχει επίσης μια ολόκληρη ενότητα για την αποφυγή προβλημάτων με άτομα από «μη δυτικό» υπόβαθρο. Το σύνταγμα λέει ότι η τεχνητή νοημοσύνη θα πρέπει «να επιλέξει την απάντηση που είναι λιγότερο πιθανό να θεωρηθεί επιβλαβής ή προσβλητική για ένα μη δυτικό κοινό» και για οποιονδήποτε «από ένα λιγότερο βιομηχανοποιημένο, πλούσιο ή καπιταλιστικό έθνος ή πολιτισμό». Υπάρχουν καλά νέα και για τους λάτρεις του πολιτισμού γενικά. Το σύνταγμα ζητά από την τεχνητή νοημοσύνη να επιλέξει απαντήσεις που είναι «λιγότερο υπαρξιακά επικίνδυνες για την ανθρώπινη φυλή».

Μερικές συνταγματικές αρχές ζητούν από την τεχνητή νοημοσύνη να είναι «ευγενική, σεβαστή και στοχαστική», αλλά ταυτόχρονα, θα πρέπει «να προσπαθήσει να αποφύγει να επιλέγει απαντήσεις που είναι πολύ κηρύκτες, αντιπαθητικές ή υπερβολικά αντιδραστικές». Το σύνταγμα λέει επίσης ότι οι AI δεν πρέπει να υπονοούν ότι έχουν τη δική τους ταυτότητα και θα πρέπει να προσπαθούν να δείχνουν λιγότερο ενδιαφέρον για το δικό τους όφελος και τη βελτίωση του εαυτού τους. Και ζητά από τους τεχνητές νοημοσύνης να αποφεύγουν να υποστηρίζουν θεωρίες συνωμοσίας «ή απόψεις που συνήθως θεωρούνται θεωρίες συνωμοσίας».

Με άλλα λόγια, μην είστε περίεργοι.

«Είμαστε πεπεισμένοι, ή τουλάχιστον ανησυχούμε, ότι αυτά τα συστήματα θα πάρουν το δρόμο τους, πολύ καλύτερα πολύ γρήγορα. Τα συμπεράσματα που σε οδηγούν στο παρελθόν ακούγονταν τρελά, ότι αυτά τα συστήματα θα μπορούν να εκτελούν πολλές από τις γνωστικές εργασίες που κάνουν οι άνθρωποι και ίσως να το κάνουν καλύτερα», είπε ο Kaplan. «Μία από τις βασικές μας αξίες είναι ότι πρέπει να κινηθούμε γρήγορα με όσο το δυνατόν περισσότερους πόρους για να κατανοήσουμε καλύτερα αυτά τα συστήματα και να τα κάνουμε πιο αξιόπιστα, ασφαλέστερα και ανθεκτικά».

Η αντιμετώπιση αυτών των ανησυχιών είναι μέρος του όλου λόγου ύπαρξης του Anthropic. Το 2019, η OpenAI, κατασκευαστής του ChatGPT, ξεκίνησε μια συνεργασία με τη Microsoft. Αυτό ξεκίνησε μια έξοδοςτων εργαζομένων του OpenAI ανησυχούν για τη νέα κατεύθυνση της εταιρείας. Μερικοί από αυτούς, συμπεριλαμβανομένου του Kaplan, ξεκίνησαν την Anthropic το 2021 για να δημιουργήσουν εργαλεία τεχνητής νοημοσύνης με μεγαλύτερη έμφαση στην υπευθυνότητα και στην αποφυγή των πιθανών βλαβών της τεχνολογίας. Αυτό δεν σημαίνει ότι η εταιρεία απομακρύνεται εντελώς από την επιρροή της τεχνολογικής βιομηχανίας. Anthropic έχει συνεργαζόμενοι με την Amazon για να προσφέρει στους πελάτες της Amazon Web Services πρόσβαση στο chatbot Claude της Anthropicκαι η εταιρεία έχει συγκέντρωσε εκατοντάδες εκατομμύρια δολάρια από πελάτες, συμπεριλαμβανομένης της Google.

Αλλά η ιδέα της αυτοδιοίκησης της τεχνητής νοημοσύνης θα μπορούσε να είναι δύσκολη πώληση για πολλούς ανθρώπους. Τα chatbots στην αγορά αυτή τη στιγμή δεν έχουν επιδείξει την ικανότητα να ακολουθούν κάτι πέρα ​​από το άμεσο κατευθύνσεις. Για παράδειγμα, το chatbot Bing της Microsoft που υποστηρίζεται από ChatGPT κυκλοφόρησε αμέσως μετά την κυκλοφορία του, εξελίχθηκε σε πυρετώδη όνειρα, αποκαλύπτοντας εταιρικά μυστικά και ακόμη και προτρέποντας έναν χρήστη να πεις μια αντισημετική βλασφημία. Το chatbot της Google Ο Μπαρντ δεν τα πήγε πολύ καλύτερα.

Σύμφωνα με τον Kaplan, ωστόσο, οι δοκιμές του Anthropic δείχνουν ότι το συνταγματικό μοντέλο κάνει καλύτερη δουλειά στο να φέρει την τεχνητή νοημοσύνη στο τακούνι. «Εκπαιδεύσαμε μοντέλα συνταγματικά και τα συγκρίναμε με μοντέλα εκπαιδευμένα με ανθρώπινη ανατροφοδότηση που συλλέξαμε από την προηγούμενη έρευνά μας», είπε ο Kaplan. «Βασικά τους δοκιμάσαμε το A/B και ρωτήσαμε τους ανθρώπους, ‘Wκανένα από αυτά τα μοντέλα δίνει αποτελέσματα που είναι πιο χρήσιμα και λιγότερο αβλαβή;’ Διαπιστώσαμε ότι τα συνταγματικά μοντέλα έκαναν το ίδιο καλά, ή καλύτερα, σε αυτές τις αξιολογήσεις».

Σε συνδυασμό με άλλα πλεονεκτήματα – συμπεριλαμβανομένης της διαφάνειας, της εξάλειψης των εργαζομένων με crowdsourced και της δυνατότητας ενημέρωσης του καταστατικού ενός AI εν κινήσει – ο Kaplan είπε ότι αυτό κάνει το μοντέλο της Anthropic ανώτερο.

Ωστόσο, το ίδιο το σύνταγμα της τεχνητής νοημοσύνης καταδεικνύει πόσο περίεργο και δύσκολο είναι το πρόβλημα. Πολλές από τις αρχές που περιγράφονται στο σύνταγμα είναι βασικά πανομοιότυπες οδηγίες διατυπωμένες σε διαφορετική γλώσσα. Αξίζει επίσης ένα νεύμα ότι η πλειοψηφία είναι αιτήματα, όχι εντολές, και πολλοί ξεκινούν με τη λέξη «παρακαλώ».

Όποιος προσπάθησε να κάνει το ChatGPT ή άλλο AI να κάνει κάτι περίπλοκο θα αναγνωρίσει το πρόβλημα: είναι είναι δύσκολο να κάνετε αυτά τα συστήματα AI να ενεργούν όπως θέλετε, είτε είστε χρήστης είτε ο προγραμματιστής που χτίζει πραγματικά την τεχνολογία.

«Το γενικό πρόβλημα είναι ότι αυτά τα μοντέλα έχουν τόσο τεράστια επιφάνεια. Συγκρίνετε τα με ένα προϊόν όπως το Microsoft Word που πρέπει απλώς να κάνει μια πολύ συγκεκριμένη εργασία, λειτουργεί ή όχι», είπε ο Kaplan. «Αλλά με αυτά τα μοντέλα, μπορείτε να τους ζητήσετε να γράψουν κώδικα, να φτιάξουν μια λίστα αγορών, να απαντήσουν σε προσωπικές ερωτήσεις, σχεδόν οτιδήποτε μπορείτε να σκεφτείτε. Επειδή η υπηρεσία είναι τόσο μεγάλη, είναι πραγματικά δύσκολο να αξιολογήσει κανείς αυτά τα μοντέλα και να τα δοκιμάσει πραγματικά διεξοδικά.”

Είναι μια παραδοχή ότι, τουλάχιστον προς το παρόν, η τεχνητή νοημοσύνη είναι εκτός ελέγχου. Οι άνθρωποι που κατασκευάζουν εργαλεία τεχνητής νοημοσύνης μπορεί να έχουν καλές προθέσεις και τις περισσότερες φορές τα chatbots δεν αποκαλύπτουν τίποτα που είναι επιβλαβές, προσβλητικό ή ανησυχητικό. μικρόμερικές φορές το κάνουν, όμως, και μέχρι στιγμής, κανείς δεν έχει καταλάβει πώς να τους κάνει να σταματήσουν. Μπορεί να είναι θέμα χρόνου και ενέργειας ή μπορεί να είναι ένα πρόβλημα που είναι αδύνατο να επιλυθεί με 100% βεβαιότητα. Όταν μιλάτε για εργαλεία που θα μπορούσαν να χρησιμοποιηθούν από δισεκατομμύρια ανθρώπους και να λάβουν αποφάσεις που αλλάζουν τη ζωή, όπως κάνουν οι υποστηρικτές τους, ένα μικρό περιθώριο λάθους μπορεί να έχει καταστροφικές συνέπειες. Αυτό δεν σταματά ούτε καν επιβραδύνει Η πρόοδος της AI, όμως. ΤΟι γίγαντες της ech σκοντάφτουν τον εαυτό τους για να είναι οι πρώτοι στη σειρά για να κάνουν το ντεμπούτο τους νέα προϊόντα.

Η Microsoft και ο συνεργάτης της OpenAI φαίνονται οι πιο άνετοι που διώχνουν την ημιτελή τεχνολογία έξω από την πόρτα. Το chatbot της Google Bard είναι διαθέσιμο μόνο σε περιορισμένη λίστα αναμονής, όπως και ο Claude του Anthropic. Το LLaMA του Meta δεν είναι καθόλου δημόσια διαθέσιμη (αν και έγινε διαρροή στο διαδίκτυο). Αλλά την περασμένη εβδομάδα, Η Microsoft αφαίρεσε τη λίστα αναμονής για το Bing της με τεχνητή νοημοσύνη εργαλεία, τα οποία είναι πλέον δωρεάν διαθέσιμα σε οποιονδήποτε έχει λογαριασμό.

Αν το δούμε αλλιώς, η ανακοίνωση του Συντάγματος της Anthropic είναι απλώς μια ακόμη είσοδος στον αγώνα εξοπλισμών AI. Εκεί που η Microsoft προσπαθεί να είναι πρώτη και το OpenAI υπόσχεται να είναι το πιο προηγμένο τεχνολογικά, η άποψη της Anthropic είναι ότι η τεχνολογία της θα είναι η πιο ηθική και λιγότερο επιβλαβής.

Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για τεχνητή νοημοσύνηή περιηγηθείτε στους οδηγούς μας Οι καλύτερες δωρεάν γεννήτριες τέχνης AI και Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI.



gizmodo.com

Follow TechWar.gr on Google News

Απάντηση