Η πολιτική του OpenAI δεν απαγορεύει πλέον ρητά τη χρήση της τεχνολογίας του για «στρατιωτικούς και πολέμους»



Μόλις πριν από λίγες μέρες, το

‘s

σελίδα πολιτικών χρήσης

δηλώνει ρητά ότι η εταιρεία απαγορεύει τη χρήση της

ς της για «στρατιωτικούς και πολεμικούς» σκοπούς. Αυτή η γραμμή έχει διαγραφεί από τότε. Όπως πρωτοπαρατήρησε ο


Το Intercept


η εταιρία

ενημέρωσε τη σελίδα

στις 10 Ιανουαρίου “για να είμαστε πιο σαφείς και να παρέχουμε περισσότερες οδηγίες για συγκεκριμένες υπηρεσίες”, όπως αναφέρει το αρχείο καταγραφής αλλαγών. Εξακολουθεί να απαγορεύει τη χρήση των μεγάλων γλωσσικών μοντέλων της (LLM) για οτιδήποτε μπορεί να προκαλέσει βλάβη και προειδοποιεί τους ανθρώ

ς να μην χρησιμοποιούν τις υπηρεσίες της για «ανάπτυξη ή χρήση όπλων». Ωστόσο, η εταιρεία έχει αφαιρέσει τη γλώσσα που σχετίζεται με “στρατιωτικό και πόλεμο”.

Αν και δεν έχουμε δει ακόμη τις επιπτώσεις της στην πραγματική ζωή, αυτή η αλλαγή στη διατύπωση έρχεται τη στιγμή που οι στρατιωτικές υπηρεσίες σε όλο τον κόσμο δείχνουν ενδιαφέρον για τη χρήση της

ητής νοημοσύνης. «Δεδομένης της χρήσης συστημάτων τεχνητής νοημοσύνης στη στόχευση αμάχων στη Γάζα, είναι μια αξιοσημείωτη στιγμή να λάβουμε την απόφαση να αφαιρέσουμε τις λέξεις «στρατιωτικός και πόλεμος» από την

επιτρεπόμενης χρήσης του OpenAI», δήλωσε η Sarah Myers West, διευθύνουσα σύμβουλος του AI Now. Ινστιτούτο, είπε η δημοσίευση.

Η ρητή αναφορά του “στρατιωτικού και του πολέμου” στη λίστα των απαγορευμένων χρήσεων έδειξε ότι το OpenAI δεν μπορούσε να συνεργαστεί με κυβερνητικές υπηρεσίες όπως το Υπουργείο Άμυνας, το οποίο συνήθως προσφέρει προσοδοφόρες συμφωνίες σε εργολάβους. Προς το παρόν, η εταιρεία δεν διαθέτει προϊόν που θα μπορούσε άμεσα να σκοτώσει ή να προκαλέσει σωματική βλάβη σε κανέναν. Αλλά όπως

Το Intercept

είπε, η τεχνολογία του θα μπορούσε να χρησιμοποιηθεί για εργασίες όπως η σύνταξη κώδικα και η επεξεργασία παραγγελιών προμήθειας για πράγματα που θα μπορούσαν να χρησιμοποιηθούν για να σκοτώσουν ανθρώπους.

Όταν ρωτήθηκε για την αλλαγή στη διατύπωση της πολιτικής του, ο εκπρόσωπος του OpenAI, Niko Felix είπε στη δημοσίευση ότι η εταιρεία «στόχευε να δημιουργήσει ένα σύνολο καθολικών αρχών που είναι εύκολο να θυμόμαστε και να εφαρμόζουμε, ειδικά καθώς τα εργαλεία μας χρησιμοποιούνται πλέον παγκοσμίως από καθημερινούς χρήστες που μπορεί τώρα να δημιουργήσει και GPT.” Ο Felix εξήγησε ότι «μια αρχή όπως το «Μην βλάπτεις τους άλλους» είναι ευρεία, αλλά εύκολα κατανοητή και σχετική σε πολλά πλαίσια», προσθέτοντας ότι το OpenAI «ανέφερε συγκεκριμένα όπλα και τραυματισμούς σε άλλους ως ξεκάθαρα παραδείγματα». Ωστόσο, ο εκπρόσωπος φέρεται να αρνήθηκε να διευκρινίσει εάν η απαγόρευση της χρήσης της τεχνολογίας της για να «βλάψει» άλλους περιλάμβανε όλους τους τύπους στρατιωτικής χρήσης εκτός της ανάπτυξης όπλων.


VIA:

engadget.com


Η πολιτική του OpenAI δεν απαγορεύει πλέον ρητά τη χρήση της τεχνολογίας του για «στρατιωτικούς και πολέμους», Η πολιτική του OpenAI δεν απαγορεύει πλέον ρητά τη χρήση της τεχνολογίας του για «στρατιωτικούς και πολέμους», TechWar.GR


Leave A Reply



Cancel Reply

Your email address will not be published.