Η Google προσαρμόζει την πολιτική απορρήτου επιτρέποντας τη χρήση δημόσιων δεδομένων για εκπαίδευση τεχνητής νοημοσύνης
Related Posts
Η
Google
μπορεί πλέον να χρησιμοποιεί δημόσια δεδομένα για να βοηθήσει στην εκπαίδευση και τη δημιουργία προϊόντων τεχνητής νοημοσύνης, σύμφωνα με νέα
αλλαγές στην πολιτική απορρήτου
(ανοίγει σε νέα καρτέλα)
.
Από την 1η Ιουλίου, το
πρόσφατα προσαρμοσμένη πολιτική του τεχνολογικού γίγαντα
(ανοίγει σε νέα καρτέλα)
λέει: “Η Google χρησιμοποιεί πληροφορίες για να βελτιώσει τις υπηρεσίες μας και να αναπτύξει νέα προϊόντα, λειτουργίες και τεχνολογίες που ωφελούν τους χρήστες μας και το κοινό. Για παράδειγμα, χρησιμοποιούμε δημόσια διαθέσιμες πληροφορίες για να βοηθήσουμε στην εκπαίδευση των μοντέλων AI της Google και στη δημιουργία προϊόντων και λειτουργιών όπως η Μετάφραση Google, Δυνατότητες Bard και
Cloud
AI.”
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Η διαμαρτυρία για το API του Reddit μόλις απέκτησε ακόμη περισσότερο NSFW
Προηγουμένως, η πολιτική ανέφερε μόνο ότι οι πληροφορίες που ήταν διαθέσιμες στο κοινό θα μπορούσαν να χρησιμοποιηθούν για να βοηθήσουν στην εκπαίδευση των “μοντέλων γλώσσας” της Google και έδινε μία μόνο αναφορά στο Google Translate.
Αν και η ενημέρωση δεν αλλάζει την εμπειρία του χρήστη ούτε επηρεάζει άμεσα τα προϊόντα Google από τώρα, η προσαρμογή γλώσσας σηματοδοτεί ότι η εταιρεία κλίνει περισσότερο στην προσφορά της για τεχνητή νοημοσύνη και ότι η συμπεριφορά αναζήτησης του κοινού μπορεί να είναι σημαντικός παράγοντας συνεχιζόμενη ανάπτυξη.
Το tweet μπορεί να έχει διαγραφεί
(ανοίγει σε νέα καρτέλα)
Η Google υπαινίσσεται πολλές καταχωρήσεις στον χώρο της τεχνητής νοημοσύνης, συμπεριλαμβανομένων των εμπειριών αγορών με τεχνητή νοημοσύνη, των λειτουργιών του Google Lens, ακόμη και μιας δημιουργίας κειμένου σε μουσική.
Ενώ το chatbot τεχνητής νοημοσύνης της Google, Bard, κυκλοφόρησε με λιγότερο ενθουσιώδη ανταπόκριση στην αρχή, εντάχθηκε γρήγορα με άλλα chatbots στην αγορά. Η Google ανακοίνωσε επίσης μια επερχόμενη αναζήτηση βασισμένη σε τεχνητή νοημοσύνη, γνωστή ως Search Generative Experience (SGE) για να ολοκληρώσει τη σειρά των προσφορών της AI. Κατά ειρωνικό τρόπο, η μητρική εταιρεία της Google, η Alphabet, προειδοποίησε τους δικούς της υπαλλήλους για τους κινδύνους ασφάλειας από τη χρήση chatbots μόλις τον περασμένο μήνα και η Google κυκλοφόρησε το δικό της Secure AI Framework σε μια προσπάθεια να ενισχύσει την ασφάλεια στον κυβερνοχώρο γύρω από απειλές AI.
Σε γενικές γραμμές, οι ανησυχίες για το απόρρητο, την πνευματική ιδιοκτησία και τον αντίκτυπο αυτών των μοντέλων στην ανθρώπινη εργασία και τη δημιουργικότητα έχουν μαστίσει την εισαγωγή νέων προϊόντων τεχνητής νοημοσύνης. ΕΝΑ
ασκήθηκε ομαδική αγωγή κατά του OpenAI
(ανοίγει σε νέα καρτέλα)
ο κατασκευαστής του δημοφιλούς ρομπότ AI
ChatGPT
, μόλις τον περασμένο μήνα, ισχυριζόμενος ότι η εταιρεία έκλεψε «ουσιαστικά όλα τα δεδομένα που ανταλλάσσονταν στο Διαδίκτυο που θα μπορούσε να χρειαστεί» χωρίς ειδοποίηση, συναίνεση ή αποζημίωση.
Κάποιοι διαδικτυακοί παρείχαν την ενημέρωση της Google στο
αμφιλεγόμενο ClearView AI
(ανοίγει σε νέα καρτέλα)
, η οποία κατασκεύασε μια εφαρμογή αναγνώρισης προσώπου βαθμού επιβολής του νόμου αντλώντας σύμφωνα με πληροφορίες δισεκατομμύρια εικόνες προσώπων από ιστότοπους κοινωνικής δικτύωσης και άλλες πλατφόρμες. Το 2022, η ClearView AI διευθέτησε μια αγωγή με την ACLU, απαγορεύοντας τη δυνατότητα της εταιρείας να πουλάει ή να παραχωρεί πρόσβαση στη βάση δεδομένων της αναγνώρισης προσώπου σε ιδιωτικές εταιρείες και ιδιώτες.
Προς το παρόν, η Google φαίνεται να προειδοποιεί προληπτικά τους χρήστες για τα μελλοντικά της σχέδια AI. Απλώς να γνωρίζετε ότι οι αναζητήσεις σας μπορεί να κάνουν ένα bot AI πιο έξυπνο.


