Η OpenAI δημιουργεί νέα ομάδα για την ασφάλεια των παιδιών: Μελέτη και προστασία



Υπό τον έλεγχο ακτιβιστών – και γονέων – το OpenAI σχημάτισε μια νέα ομάδα για να μελετήσει τρό

ς για να αποτρέψει την κακή χρήση ή κατάχρηση των εργαλείων τεχνητής νοημοσύνης του από παιδιά.

Σε μια νέα λίστα θέσεων εργασίας στη σελίδα καριέρας του, το OpenAI

αποκαλύπτει

την ύπαρξη μιας ομάδας Ασφάλειας Παιδιού, η οποία σύμφωνα με την εταιρεία συνεργάζεται με

πολιτικής πλατφόρμας, νομικές και ερευνητικές ομάδες εντός του OpenAI καθώς και με εξωτερικούς συνεργάτες για τη διαχείριση «διαδικασιών, περιστατικών και αξιολογήσεων» που σχετίζονται με ανήλικους χρήστες.

Αυτήν τη στιγμή, η ομάδα αναζητά να προσλάβει έναν ειδικό σε θέματα επιβολής της ασφάλειας των παιδιών, ο οποίος θα είναι υπεύθυνος για την εφαρμογή των πολιτικών του OpenAI στο πλαίσιο του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη και θα εργάζεται σε διαδικασίες ελέγχου που σχετίζονται με «ευαίσθητο» (πιθανώς σχετικό με παιδιά) περιεχόμενο.

Προμηθευτές

ς συγκεκριμένου μεγέθους αφιερώνουν αρκετή ποσότητα πόρων στη συμμόρφωση με νόμους όπως ο Κανόνας Προστασίας Απορρήτου των Παιδιών στο Διαδίκτυο των ΗΠΑ, ο οποίος επιβάλλει ελέγχους σχετικά με το τι μπορούν και τι δεν μπορούν να έχουν πρόσβαση τα παιδιά στον Ιστό, καθώς και τι είδους εταιρείες δεδομένων μπορεί να συλλέξει πάνω τους. Έτσι, το γεγονός ότι η OpenAI προσλαμβάνει ειδικούς για την ασφάλεια των παιδιών δεν αποτελεί έκπληξη, ιδιαίτερα αν η εταιρεία περιμένει μια σημαντική βάση χρηστών ανηλίκων μια μέρα. (Οι τρέχοντες όροι χρήσης του OpenAI απαιτούν τη γονική συναίνεση για παιδιά ηλικίας 13 έως 18 ετών και απαγορεύουν τη χρήση για παιδιά κάτω των 13 ετών.)

Ωστόσο, ο σχηματισμός της νέας ομάδας, που έρχεται αρκετές εβδομάδες αφότου το OpenAI ανακοίνωσε μια συνεργασία με την Common Sense Media για να συνεργαστεί σε φιλικές προς τα παιδιά κατευθυντήριες γραμμές τεχνητής νοημοσύνης και να προσγειώσει τον πρώτο της εκπαιδευτικό πελάτη, υποδηλώνει επίσης μια επιφυλακτικότητα όσον αφορά το OpenAI να παραβιάζει τις πολιτικές που σχετίζονται με χρήση τεχνητής νοημοσύνης από ανηλίκους — και αρνητικός τύπος.

Τα παιδιά και οι έφηβοι στρέφονται όλο και περισσότερο στα εργαλεία GenAI για βοήθεια όχι μόνο

σχολική εργασία

αλλά προσωπικά θέματα. Σύμφωνα με α

ψηφοφορία

από το Κέντρο για τη Δημοκρατία και την Τεχνολογία, το 29% των παιδιών αναφέρει ότι έχει χρησιμοποιήσει το ChatGPT για την αντιμετώπιση προβλημάτων άγχους ή ψυχικής υγείας, το 22% για θέματα με φίλους και το 16% για οικογενειακές συγκρούσεις.

Κάποιοι το βλέπουν ως αυξανόμενο κίνδυνο.

Το περασμένο καλοκαίρι, σχολεία και κολέγια έσπευσαν να απαγορεύσουν το ChatGPT λόγω λογοκλοπής και φόβου παραπληροφόρησης. Από τότε, κάποιοι έχουν

αντίστροφα

τις απαγορεύσεις τους. Αλλά δεν είναι όλοι πεπεισμένοι για τις δυνατότητες του GenAI για καλό, δείχνοντας

έρευνες

όπως το Κέντρο Ασφαλούς Διαδικτύου του Ηνωμένου Βασιλείου, το οποίο διαπίστωσε ότι πάνω από τα μισά παιδιά (53%) αναφέρουν ότι έχουν δει άτομα της ηλικίας τους να χρησιμοποιούν το GenAI με αρνητικό τρόπο — για παράδειγμα δημιουργώντας πιστευτές ψευδείς πληροφορίες ή εικόνες που χρησιμοποιούνται για να αναστατώσουν κάποιον.

Τον Σεπτέμβριο, το OpenAI δημοσίευσε τεκμηρίωση για το ChatGPT στις τάξεις με προτροπές και FAQ για να προσφέρει καθοδήγηση στους εκπαιδευτικούς σχετικά με τη χρήση του GenAI ως εργαλείο διδασκαλίας. Σε ένα από τα

άρθρα υποστήριξης

το OpenAI αναγνώρισε ότι τα εργαλεία του, συγκεκριμένα το ChatGPT, «μπορεί να παράγουν αποτελέσματα που δεν είναι κατάλληλα για όλα τα κοινά ή για όλες τις ηλικίες» και συνέστησε «προσοχή» με την έκθεση στα παιδιά — ακόμη και σε αυτά που πληρούν τις απαιτήσεις ηλικίας.


Οι εκκλήσεις για οδηγίες σχετικά με τη χρήση του GenAI για παιδιά αυξάνονται.

Ο Εκπαιδευτικός, Επιστημονικός και Πολιτιστικός Οργανισμός του ΟΗΕ (UNESCO) στα τέλη του περασμένου έτους

έσπρωξε

για τις κυβερνήσεις να ρυθμίσουν τη χρήση του GenAI στην εκπαίδευση, συμπεριλαμβανομένης της εφαρμογής ορίων ηλικίας για τους χρήστες και προστατευτικών κιγκλιδωμάτων για την προστασία δεδομένων και το απόρρητο των χρηστών. «Η

τεχνητή νοημοσύνη μπορεί να είναι μια τεράστια ευκαιρία για την ανθρώπινη ανάπτυξη, αλλά μπορεί επίσης να προκαλέσει βλάβη και

», δήλωσε η Audrey Azoulay, γενική διευθύντρια της UNESCO, σε δελτίο τύπου. «Δεν μπορεί να ενσωματωθεί στην εκπαίδευση χωρίς δημόσια συμμετοχή και τις απαραίτητες διασφαλίσεις και κανονισμούς από τις κυβερνήσεις».


VIA:

techcrunch.com


Follow TechWar.gr on Google News


Leave A Reply



Cancel Reply

Your email address will not be published.