Το OpenAI αφαιρεί τις στρατιωτικές και πολεμικές απαγορεύσεις από τις πολιτικές του
Το OpenAI μπορεί να ανοίγει το δρόμο προς την ανακάλυψη των στρατιωτικών δυνατοτήτων της τεχνητής νοημοσύνης του.
Πρώτη αναφορά από
ο
Αναχαιτίζω
Στις 12 Ιανουαρίου, μια νέα αλλαγή πολιτικής της εταιρείας έχει αφαιρέσει εντελώς την προηγούμενη γλώσσα
που
απαγόρευε τη «δραστηριότητα που έχει υψηλό κίνδυνο σωματικής βλάβης», συμπεριλαμβανομένων συγκεκριμένων παραδειγμάτων «ανάπτυξης όπλων» και «στρατιωτικού και πολέμου».
Από τις 10 Ιανουαρίου, το OpenAI’s
οδηγίες χρήσης
δεν περιελάμβανε πλέον απαγόρευση χρήσης “στρατιωτικών και πολεμικών” στην υπάρχουσα γλώσσα που υποχρεώνει τους χρήστες να αποτρέπουν τη ζημιά. Η πολιτική σημειώνει τώρα μόνο την απαγόρευση χρήσης της τεχνολογίας OpenAI, όπως τα Μεγάλα Γλωσσικά Μοντέλα (LLMs), για την «ανάπτυξη ή χρήση όπλων».
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Τι είναι το Rabbit R1 AI Assistant και γιατί όλοι τρελαίνονται γι’ αυτό;
Η επακόλουθη αναφορά σχετικά με την τροποποίηση της πολιτικής έδειξε την άμεση
δυνατότητα επικερδών συνεργασιών
μεταξύ OpenAI και τμημάτων άμυνας που επιδιώκουν να χρησιμοποιήσουν την
γενετική τεχνητή νοημοσύνη
σε διοικητικές
επιχειρήσεις
ή επιχειρήσεις πληροφοριών.
Τον Νοέμβριο του 2023, το Υπουργείο Άμυνας των ΗΠΑ εξέδωσε α
δήλωση
σχετικά με την αποστολή της να προωθήσει «την υπεύθυνη στρατιωτική χρήση της τεχνητής νοημοσύνης και των αυτόνομων συστημάτων», επικαλούμενη την έγκριση από τη χώρα της διεθνούς Πολιτικής Διακήρυξης για την Υπεύθυνη Στρατιωτική Χρήση της Τεχνητής Νοημοσύνης και την Αυτονομία — μια «βέλτιστες πρακτικές» υπό την ηγεσία των ΗΠΑ που ανακοινώθηκε τον Φεβ. 2023 που αναπτύχθηκε για να παρακολουθεί και να καθοδηγεί την ανάπτυξη των στρατιωτικών δυνατοτήτων AI.
«Οι στρατιωτικές δυνατότητες τεχνητής νοημοσύνης περιλαμβάνουν όχι μόνο όπλα αλλά και συστήματα υποστήριξης αποφάσεων που βοηθούν τους αμυντικούς ηγέτες σε όλα τα επίπεδα να λαμβάνουν καλύτερες και πιο έγκαιρες αποφάσεις, από το πεδίο της μάχης μέχρι την αίθουσα συνεδριάσεων και συστήματα που σχετίζονται με τα πάντα, από τα οικονομικά, τη μισθοδοσία και τη λογιστική, μέχρι τη στρατολόγηση , διατήρηση και προαγωγή του προσωπικού, στη συλλογή και συγχώνευση δεδομένων πληροφοριών, επιτήρησης και αναγνώρισης», εξηγεί η δήλωση.
Η
τεχνητή νοημοσύνη
έχει ήδη χρησιμοποιηθεί από τον αμερικανικό στρατό στο
Πόλεμος Ρωσίας-Ουκρανίας και στην ανάπτυξη αυτόνομων στρατιωτικών οχημάτων που κινούνται με AI
. Αλλού, η τεχνητή νοημοσύνη έχει ενσωματωθεί σε στρατιωτικά συστήματα πληροφοριών και στόχευσης, συμπεριλαμβανομένου ενός συστήματος τεχνητής νοημοσύνης που είναι γνωστό ως «The Gospel», που χρησιμοποιείται από τις ισραηλινές δυνάμεις για τον εντοπισμό στόχων και σύμφωνα με πληροφορίες για τη «μείωση των ανθρώπινων απωλειών» στις επιθέσεις τους στη Γάζα.
Οι παρατηρητές και οι ακτιβιστές της τεχνητής νοημοσύνης έχουν εκφράσει με συνέπεια ανησυχία για την αυξανόμενη ενσωμάτωση τεχνολογιών τεχνητής νοημοσύνης στο
τόσο η σύγκρουση στον κυβερνοχώρο όσο και η μάχη
φοβούμενοι μια κλιμάκωση της σύγκρουσης εξοπλισμών εκτός από τις προκαταλήψεις του συστήματος τεχνητής νοημοσύνης που έχουν επισημανθεί από καιρό.
Σε δήλωση προς την
Αναχαιτίζω
ο εκπρόσωπος του OpenAI, Niko Felix εξήγησε ότι η αλλαγή είχε σκοπό να εξορθολογίσει τις κατευθυντήριες γραμμές της εταιρείας: «Στόχευσα να δημιουργήσουμε ένα σύνολο καθολικών αρχών που είναι εύκολο να θυμόμαστε και να εφαρμόζουμε, ειδικά καθώς τα εργαλεία μας χρησιμοποιούνται πλέον παγκοσμίως από καθημερινούς χρήστες που μπορούν πλέον επίσης Κατασκευάστε GPT. Μια αρχή όπως “Μην βλάπτετε τους άλλους” είναι ευρεία, αλλά εύκολα κατανοητή και σχετική σε πολλά πλαίσια. Επιπλέον, αναφέραμε συγκεκριμένα όπλα και τραυματισμούς σε άλλους ως σαφή παραδείγματα.”
Το OpenAI εισάγει τις πολιτικές χρήσης του σε ένα εξίσου απλοϊκό ρεφρέν: «Στοχεύουμε τα εργαλεία μας να χρησιμοποιούνται με ασφάλεια και υπευθυνότητα, ενώ μεγιστοποιούμε τον έλεγχό σας στον τρόπο που τα χρησιμοποιείτε».
Θέμα
τα
Τεχνητή Νοημοσύνη OpenAI
VIA:
mashable.com

