Το OpenAI χρησιμοποιεί το GPT-4 για να δημιουργήσει ένα σύστημα εποπτείας περιεχομένου που υποστηρίζεται από AI

είναι ένα από τα πιο ακανθώδη θέματα στο διαδίκτυο εδώ και δεκαετίες. Είναι ένα δύσκολο θέμα για οποιονδήποτε να ασχοληθεί, λαμβάνοντας υπόψη την υποκειμενικότητα που πηγαίνει χέρι-χέρι με το να καταλάβουμε ποιο περιεχόμενο θα πρέπει να επιτρέπεται σε μια δεδομένη

. Ο κατασκευαστής πιστεύει ότι μπορεί να βοηθήσει και δοκίμασε τις δεξιότητες ελέγχου περιεχομένου. Χρησιμοποιεί το μεγάλο πολυτροπικό

“για να δημιουργήσει ένα σύστημα εποπτείας περιεχομένου που είναι επεκτάσιμο, συνεπές και προσαρμόσιμο”.

Η εταιρία


ότι το GPT-4 όχι μόνο μπορεί να βοηθήσει στη λήψη αποφάσεων ελέγχου περιεχομένου, αλλά να βοηθήσει στην ανάπτυξη πολιτικών και στην ταχεία επανάληψη των αλλαγών πολιτικής, «μειώνοντας τον κύκλο από μήνες σε ώρες». Ισχυρίζεται ότι το μοντέλο μπορεί να αναλύσει τους διάφορους κανονισμούς και αποχρώσεις στις πολιτικές περιεχομένου και να προσαρμοστεί άμεσα σε τυχόν ενημερώσεις. Αυτό, ισχυρίζεται το OpenAI, οδηγεί σε πιο συνεπή επισήμανση του περιεχομένου.


“Πιστεύουμε ότι αυτό προσφέρει ένα πιο θετικό όραμα για το μέλλον των ψηφιακών πλατφορμών, όπου η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον περιορισμό της διαδικτυακής επισκεψιμότητας σύμφωνα με την πολιτική της συγκεκριμένης πλατφόρμας και να ανακουφίσει το ψυχικό φορτίο ενός μεγάλου αριθμού ανθρώπων συντονιστών”, οι Lilian Weng, Vik Goel και του OpenAI. έγραψε ο Andrea Vallone. “Όποιος έχει πρόσβαση στο OpenAI API μπορεί να εφαρμόσει αυτήν την προσέγγιση για να δημιουργήσει το δικό του σύστημα εποπτείας με τη βοήθεια AI.” Το OpenAI ισχυρίζεται ότι τα εργαλεία εποπτείας GPT-4 μπορούν να βοηθήσουν τις εταιρείες να πραγματοποιήσουν περίπου έξι μήνες εργασίας σε περίπου μία ημέρα.

Είναι καλά τεκμηριωμένο ότι η μη αυτόματη ανασκόπηση τραυματικού περιεχομένου μπορεί να έχει σημαντικό αντίκτυπο στην ψυχική υγεία των ανθρώπων μεσολαβητών, ιδιαίτερα όταν πρόκειται για γραφικό υλικό. Το 2020, η

θα πληρώσει σε περισσότερους από 11.000 συντονιστές τουλάχιστον 1.000 $ ο καθένας ως αποζημίωση για προβλήματα ψυχικής υγείας που μπορεί να προέκυψαν από την εξέταση υλικού που δημοσιεύτηκε στο Facebook.

Η χρήση της τεχνητής νοημοσύνης για την άρση μέρους του φόρτου από τους ανθρώπινους αναθεωρητές θα μπορούσε να είναι πολύ επωφελής. Η Meta, για ένα, χρησιμοποιεί AI για αρκετά χρόνια. Ωστόσο, το OpenAI λέει ότι, μέχρι τώρα, οι ανθρώπινοι συντονιστές λάμβαναν βοήθεια από “μικρότερα μοντέλα μηχανικής μάθησης ειδικά για κάθετη. Η διαδικασία είναι εγγενώς αργή και μπορεί να οδηγήσει σε ψυχικό στρες στους ανθρώπους μεσολαβητές”.

Τα μοντέλα AI δεν είναι τέλεια. Οι μεγάλες εταιρείες χρησιμοποιούν εδώ και καιρό την τεχνητή νοημοσύνη στις διαδικασίες μετριασμού τους και, με ή χωρίς τη βοήθεια της τεχνολογίας, . Μένει να δούμε αν το σύστημα του OpenAI μπορεί να αποφύγει πολλές από τις μεγάλες παγίδες μετριοπάθειας στις οποίες έχουμε δει άλλες εταιρείες να πέφτουν όλα αυτά τα χρόνια.

Σε κάθε περίπτωση, το OpenAI συμφωνεί ότι οι άνθρωποι πρέπει ακόμα να συμμετέχουν στη διαδικασία. «Συνεχίσαμε να έχουμε ανθρώπινη αναθεώρηση για να επαληθεύσουμε ορισμένες από τις κρίσεις του μοντέλου», είπε ο Vallone, ο οποίος εργάζεται στην ομάδα πολιτικής του OpenAI.




.

“Οι κρίσεις βάσει γλωσσικών μοντέλων είναι ευάλωτες σε ανεπιθύμητες προκαταλήψεις που θα μπορούσαν να είχαν εισαχθεί στο μοντέλο κατά τη διάρκεια της εκπαίδευσης. Όπως με κάθε

τεχνητής νοημοσύνης, τα

και τα αποτελέσματα θα πρέπει να παρακολουθούνται προσεκτικά, να επικυρώνονται και να βελτιώνονται διατηρώντας τους ανθρώπους στο βρόχο”, στο blog του OpenAI ανάρτηση διαβάζει. “Με τη μείωση της ανθρώπινης συμμετοχής σε ορισμένα μέρη της διαδικασίας μετριοπάθειας που μπορούν να χειριστούν τα γλωσσικά μοντέλα, το ανθρώπινο δυναμικό μπορεί να εστιαστεί περισσότερο στην αντιμετώπιση των περίπλοκων περιπτώσεων αιχμής που χρειάζονται περισσότερο για τη βελτίωση της πολιτικής.”



Engadget.com


Leave A Reply



Cancel Reply

Your email address will not be published.