Η Apple παραμένει ακίνητη καθώς η Google, η Microsoft δεσμεύονται να ελέγξουν την τεχνητή νοημοσύνη και να καταπολεμήσουν τον καρκίνο
Μια νέα ένωση επικεντρωμένη στην τεχνητή νοημοσύνη έχει δημιουργηθεί από την
OpenAI
, την
Google
, τη
Microsoft
και την Anthropic (μια εταιρεία ασφάλειας και έρευνας AI με έδρα την Καλιφόρνια). Το αποκαλούν Frontier Model Forum. Παρατηρήστε έναν τεχνολογικό γίγαντα που λείπει ανάμεσα σε αυτούς τους τέσσερις; Ναι, η
Apple
δεν πρόκειται να (συμμετάσχει) σε αυτό το πάρτι, τουλάχιστον όχι προς το παρόν. Προτού καλύψει τι θα κάνει αυτή η νέα κοινοπραξία (μέσω
AppleInsider
), είναι σημαντικό να σημειωθεί ότι είναι η δεύτερη φορά που η Apple δεν εντάσσεται σε μια μεγάλη κοινοπραξία που σχετίζεται με την τεχνητή νοημοσύνη. Την περασμένη φορά (21 Ιουλίου), ο γίγαντας του Κουπερτίνο έλειπε από την ανακοίνωση του Λευκού Οίκου ότι έχει εξασφαλίσει εθελοντικές δεσμεύσεις από αρκετές κορυφαίες εταιρείες στον τομέα της τεχνητής νοημοσύνης για τη διαχείριση των κινδύνων που ενέχει η τεχνητή νοημοσύνη.
Να τι α
Ανάρτηση ιστολογίου Google
σχετικά με τη νέα ένωση επικεντρωμένη στην τεχνητή νοημοσύνη ανακοινώνει:
Σήμερα, η Anthropic, η Google, η Microsoft και η OpenAI ανακοινώνουν τη δημιουργία του Frontier Model Forum, ενός νέου φορέα της βιομηχανίας που επικεντρώνεται στη διασφάλιση της ασφαλούς και υπεύθυνης ανάπτυξης μοντέλων τεχνητής νοημοσύνης συνόρων. Το Frontier Model Forum θα αξιοποιήσει την τεχνική και λειτουργική τεχνογνωσία των εταιρειών-μελών του για να ωφελήσει ολόκληρο το οικοσύστημα AI, όπως μέσω της προώθησης τεχνικών αξιολογήσεων, σημείων αναφοράς και της ανάπτυξης μιας δημόσιας βιβλιοθήκης λύσεων για την υποστήριξη των βέλτιστων πρακτικών και προτύπων του κλάδου.
Τι είναι ένα μοντέλο συνόρων;
Όπως εξηγείται στο ίδιο άρθρο του ιστολογίου Google, τα μοντέλα συνόρων ορίζονται ως «μοντέλα μηχανικής μάθησης μεγάλης κλίμακας που υπερβαίνουν τις δυνατότητες που υπάρχουν επί του παρόντος στα πιο προηγμένα υπάρχοντα μοντέλα και μπορούν να εκτελέσουν μια μεγάλη ποικιλία εργασιών». Υπάρχει ένα κριτήριο συμμετοχής για οργανισμοί που θέλουν να συμμετάσχουν: πρέπει να αναπτύξουν και να αναπτύξουν μοντέλα συνόρων (όπως ορίζονται από το φόρουμ), να επιδείξουν ισχυρή δέσμευση για την ασφάλεια των μοντέλων συνόρων, μεταξύ άλλων μέσω τεχνικών και θεσμικών προσεγγίσεων και είναι πρόθυμοι να συμβάλουν στην προώθηση των προσπαθειών του Φόρουμ, μεταξύ άλλων με τη συμμετοχή σε κοινές πρωτοβουλίες και υποστήριξη της ανάπτυξης και λειτουργίας της πρωτοβουλίας.
Ποιος είναι πάλι ο στόχος τους;
Υπάρχουν τέσσερις βασικοί στόχοι, σύμφωνα με μέλη του Frontier Model Forum. Εδώ είναι με δικά τους λόγια:
- Προώθηση της έρευνας για την ασφάλεια της τεχνητής νοημοσύνης για την προώθηση της υπεύθυνης ανάπτυξης μοντέλων συνόρων, την ελαχιστοποίηση των κινδύνων και τη δυνατότητα ανεξάρτητων, τυποποιημένων αξιολογήσεων των δυνατοτήτων και της ασφάλειας.
- Προσδιορισμός βέλτιστων πρακτικών για την υπεύθυνη ανάπτυξη και ανάπτυξη μοντέλων συνόρων, βοηθώντας το κοινό να κατανοήσει τη φύση, τις δυνατότητες, τους περιορισμούς και τον αντίκτυπο της τεχνολογίας.
- Συνεργασία με φορείς χάραξης πολιτικής, ακαδημαϊκούς, την κοινωνία των πολιτών και εταιρείες για την ανταλλαγή γνώσεων σχετικά με τους κινδύνους εμπιστοσύνης και ασφάλειας.
- Υποστήριξη προσπαθειών για την ανάπτυξη εφαρμογών που μπορούν να βοηθήσουν στην αντιμετώπιση των μεγαλύτερων προκλήσεων της κοινωνίας, όπως ο μετριασμός και η προσαρμογή στην κλιματική αλλαγή, η έγκαιρη ανίχνευση και πρόληψη του καρκίνου και η καταπολέμηση των απειλών στον κυβερνοχώρο.
Δείτε τι λέει η Anna Makanju, Αντιπρόεδρος Παγκόσμιων Υποθέσεων, OpenAI:
Οι προηγμένες τεχνολογίες τεχνητής νοημοσύνης έχουν τη δυνατότητα να ωφελήσουν βαθιά την κοινωνία και η ικανότητα επίτευξης αυτού του δυναμικού απαιτεί επίβλεψη και διακυβέρνηση. Είναι ζωτικής σημασίας οι εταιρείες τεχνητής νοημοσύνης – ειδικά εκείνες που εργάζονται στα πιο ισχυρά μοντέλα – να ευθυγραμμιστούν σε κοινό έδαφος και να προωθήσουν προσεκτικές και προσαρμόσιμες πρακτικές ασφάλειας για να διασφαλίσουν ότι τα ισχυρά εργαλεία τεχνητής νοημοσύνης έχουν το ευρύτερο δυνατό όφελος. Αυτό είναι επείγον έργο και αυτό το φόρουμ είναι σε καλή θέση για να ενεργήσει γρήγορα για να προωθήσει την κατάσταση της ασφάλειας της τεχνητής νοημοσύνης.
Κάποιοι είναι δύσπιστοι
Έμιλυ Μπέντερ
, υπολογιστικός γλωσσολόγος στο Πανεπιστήμιο της Ουάσιγκτον και ειδικός στην τεχνητή νοημοσύνη, εξετάζει αυτές τις δεσμεύσεις από τεχνολογικούς γίγαντες περισσότερο σαν «μια προσπάθεια αποφυγής ρύθμισης. να διεκδικήσω την ικανότητα αυτορρύθμισης, για την οποία είμαι πολύ δύσπιστος». Σύμφωνα με αυτήν, «η ρύθμιση πρέπει να έρθει εξωτερικά. Πρέπει να θεσπιστεί από την κυβέρνηση που εκπροσωπεί τον λαό για να περιορίσει τι μπορούν να κάνουν αυτές οι εταιρείες».


