Η Apple παραμένει ακίνητη καθώς η Google, η Microsoft δεσμεύονται να ελέγξουν την τεχνητή νοημοσύνη και να καταπολεμήσουν τον καρκίνο

Μια νέα ένωση επικεντρωμένη στην τεχνητή νοημοσύνη έχει δημιουργηθεί από την

, την

, τη

και την Anthropic (μια εταιρεία ασφάλειας και έρευνας AI με έδρα την Καλιφόρνια). Το αποκαλούν Frontier Model Forum. Παρατηρήστε έναν τεχνολογικό γίγαντα που λείπει ανάμεσα σε αυτούς τους τέσσερις; Ναι, η

δεν πρόκειται να (συμμετάσχει) σε αυτό το πάρτι, τουλάχιστον όχι προς το παρόν. Προτού καλύψει τι θα κάνει αυτή η νέα κοινοπραξία (μέσω

AppleInsider

), είναι σημαντικό να σημειωθεί ότι είναι η δεύτερη φορά που η Apple δεν εντάσσεται σε μια μεγάλη κοινοπραξία που σχετίζεται με την τεχνητή νοημοσύνη. Την περασμένη φορά (21 Ιουλίου), ο γίγαντας του Κουπερτίνο έλειπε από την ανακοίνωση του Λευκού Οίκου ότι έχει εξασφαλίσει εθελοντικές δεσμεύσεις από αρκετές κορυφαίες εταιρείες στον τομέα της τεχνητής νοημοσύνης για τη διαχείριση των κινδύνων που ενέχει η τεχνητή νοημοσύνη.

Να τι α

Ανάρτηση ιστολογίου Google

σχετικά με τη νέα ένωση επικεντρωμένη στην τεχνητή νοημοσύνη ανακοινώνει:

Τι είναι ένα μοντέλο συνόρων;

Όπως εξηγείται στο ίδιο άρθρο του ιστολογίου Google, τα μοντέλα συνόρων ορίζονται ως «μοντέλα μηχανικής μάθησης μεγάλης κλίμακας που υπερβαίνουν τις δυνατότητες που υπάρχουν επί του παρόντος στα πιο προηγμένα υπάρχοντα μοντέλα και μπορούν να εκτελέσουν μια μεγάλη ποικιλία εργασιών». Υπάρχει ένα κριτήριο συμμετοχής για οργανισμοί που θέλουν να συμμετάσχουν: πρέπει να αναπτύξουν και να αναπτύξουν μοντέλα συνόρων (όπως ορίζονται από το φόρουμ), να επιδείξουν ισχυρή δέσμευση για την ασφάλεια των μοντέλων συνόρων, μεταξύ άλλων μέσω τεχνικών και θεσμικών προσεγγίσεων και είναι πρόθυμοι να συμβάλουν στην προώθηση των προσπαθειών του Φόρουμ, μεταξύ άλλων με τη συμμετοχή σε κοινές πρωτοβουλίες και υποστήριξη της ανάπτυξης και λειτουργίας της πρωτοβουλίας.

Ποιος είναι πάλι ο στόχος τους;

Υπάρχουν τέσσερις βασικοί στόχοι, σύμφωνα με μέλη του Frontier Model Forum. Εδώ είναι με δικά τους λόγια:

  1. Προώθηση της έρευνας για την ασφάλεια της τεχνητής νοημοσύνης για την προώθηση της υπεύθυνης ανάπτυξης μοντέλων συνόρων, την ελαχιστοποίηση των κινδύνων και τη δυνατότητα ανεξάρτητων, τυποποιημένων αξιολογήσεων των δυνατοτήτων και της ασφάλειας.
  2. Προσδιορισμός βέλτιστων πρακτικών για την υπεύθυνη ανάπτυξη και ανάπτυξη μοντέλων συνόρων, βοηθώντας το κοινό να κατανοήσει τη φύση, τις δυνατότητες, τους περιορισμούς και τον αντίκτυπο της τεχνολογίας.
  3. Συνεργασία με φορείς χάραξης πολιτικής, ακαδημαϊκούς, την κοινωνία των πολιτών και εταιρείες για την ανταλλαγή γνώσεων σχετικά με τους κινδύνους εμπιστοσύνης και ασφάλειας.
  4. Υποστήριξη προσπαθειών για την ανάπτυξη εφαρμογών που μπορούν να βοηθήσουν στην αντιμετώπιση των μεγαλύτερων προκλήσεων της κοινωνίας, όπως ο μετριασμός και η προσαρμογή στην κλιματική αλλαγή, η έγκαιρη ανίχνευση και πρόληψη του καρκίνου και η καταπολέμηση των απειλών στον κυβερνοχώρο.

Δείτε τι λέει η Anna Makanju, Αντιπρόεδρος Παγκόσμιων Υποθέσεων, OpenAI:

Κάποιοι είναι δύσπιστοι


Έμιλυ Μπέντερ

, υπολογιστικός γλωσσολόγος στο Πανεπιστήμιο της Ουάσιγκτον και ειδικός στην τεχνητή νοημοσύνη, εξετάζει αυτές τις δεσμεύσεις από τεχνολογικούς γίγαντες περισσότερο σαν «μια προσπάθεια αποφυγής ρύθμισης. να διεκδικήσω την ικανότητα αυτορρύθμισης, για την οποία είμαι πολύ δύσπιστος». Σύμφωνα με αυτήν, «η ρύθμιση πρέπει να έρθει εξωτερικά. Πρέπει να θεσπιστεί από την κυβέρνηση που εκπροσωπεί τον λαό για να περιορίσει τι μπορούν να κάνουν αυτές οι εταιρείες».


phonearena.com



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.