Η Meta διέλυσε την ομάδα της Υπεύθυνης AI



Η Meta φέρεται να διέλυσε την ομάδα της Υπεύθυνης Τεχνητής Νοημοσύνης (RAI), καθώς διαθέτει περισσότερους από τους πόρους της στην παραγωγική τεχνητή νοημοσύνη.


Η πληροφορία

έκανε την είδηση

σήμερα, επικαλούμενη μια εσωτερική ανάρτηση που είχε δει.

Σύμφωνα με την έκθεση, τα περισσότερα μέλη της RAI θα μετακινηθούν στην ομάδα προϊόντων παραγωγής τεχνητής νοημοσύνης της εταιρείας, ενώ άλλα θα εργαστούν στην υποδομή τεχνητής νοημοσύνης της Meta. Η εταιρεία λέει τακτικά ότι θέλει να αναπτύξει την τεχνητή νοημοσύνη υπεύθυνα και ομοιόμορφα

έχει σελίδα

αφιερωμένη στην υπόσχεση, όπου η εταιρεία απαριθμεί τους «πυλώνες της υπεύθυνης τεχνητής νοημοσύνης» της, συμπεριλαμβανομένης της λογοδοσίας, της διαφάνειας, της ασφάλειας, της ιδιωτικής ζωής και πολλά άλλα.


Η πληροφορία

Στην έκθεση του ο Jon Carvill, ο οποίος εκπροσωπεί τη Meta, είπε ότι η εταιρεία «θα συνεχίσει να δίνει προτεραιότητα και να επενδύει σε ασφαλή και υπεύθυνη ανάπτυξη AI». Πρόσθεσε ότι παρόλο που η εταιρεία χωρίζει την ομάδα, αυτά τα μέλη θα «συνεχίσουν να υποστηρίζουν τις σχετικές προσπάθειες cross-Meta για την υπεύθυνη ανάπτυξη και χρήση AI».

Ο Μέτα δεν απάντησε σε αίτημα για σχόλιο μέχρι την ώρα του Τύπου.

Η ομάδα είδε ήδη μια αναδιάρθρωση νωρίτερα φέτος, η οποία


Business Insider

έγραψε

περιελάμβανε απολύσεις που άφησαν τη RAI «ένα κέλυφος ομάδας». Αυτή η έκθεση συνέχισε λέγοντας ότι η ομάδα της RAI, η οποία υπήρχε από το 2019, είχε μικρή αυτονομία και ότι οι πρωτοβουλίες της έπρεπε να περάσουν από μακρές διαπραγματεύσεις με τα ενδιαφερόμενα μέρη προτού μπορέσουν να εφαρμοστούν.

Η RAI δημιουργήθηκε για να εντοπίσει προβλήματα με τις προσεγγίσεις εκπαίδευσης της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του κατά πόσον τα μοντέλα της εταιρείας εκπαιδεύονται με επαρκώς διαφορετικές πληροφορίες, με στόχο την πρόληψη προβλημάτων όπως η μετριοπάθεια στις πλατφόρμες της. Τα αυτοματοποιημένα συστήματα στις πλατφόρμες κοινωνικής δικτύωσης της Meta οδήγησαν σε προβλήματα όπως ένα ζήτημα μετάφρασης στο Facebook που προκάλεσε ψευδή σύλληψη, δημιουργία αυτοκόλλητων τεχνητής νοημοσύνης WhatsApp που οδηγεί σε προκατειλημμένες εικόνες όταν δίνονται συγκεκριμένες προτροπές και οι αλγόριθμοι του Instagram που βοηθούν τους ανθρώπους να βρουν υλικό σεξουαλικής κακοποίησης παιδιών.


VIA:

theverge.com


Follow TechWar.gr on Google News