Η απόλυση του Sam Altman μπορεί να οφειλόταν σε μια σημαντική ανακάλυψη τεχνητής νοημοσύνης που απειλεί την ανθρωπότητα
Το πενθήμερο δράμα, το οποίο παρουσίασε την απόλυση του Διευθύνοντος Συμβούλου της OpenAI, Sam Altman και στη συνέχεια την επανένταξη του ως Διευθύνοντος Συμβούλου της εταιρείας, είναι απλώς ένα άλλο παράδειγμα του πόσο τρελή μπορεί να είναι το βασίλειο της
Silicon Valley
. Ωστόσο, η απόλυση του Άλτμαν δεν οφειλόταν στο ό
τι
διατήρησε μια επαναστατική στάση με το διοικητικό συμβούλιο, αλλά λόγω μιας σημαντικής ανακάλυψης τεχνητής νοημοσύνης από ερευνητές του OpenAI που θα μπορούσε ενδεχομένως να είναι επικίνδυνη για την ανθρωπότητα.
Αρκετοί ερευνητές του προσωπικού του OpenAI έγραψαν μια επιστολή στο συμβούλιο, ενημερώνοντάς τους για τους κινδύνους που ενέχει αυτή η σημαντική ανακάλυψη της τεχνητής νοημοσύνης, που τελικά οδήγησε στην απόλυση του Σαμ Άλτμαν
Υποθέτοντας ότι η τεχνητή νοημοσύνη δεν ελεγχθεί ή δεν ρυθμιστεί, θα μπορούσε να οδηγήσει σε επιζήμια αποτελέσματα, και αυτό είχε αναφέρει το Reuters όταν πηγές που γνωρίζουν το θέμα είπαν στο δημοσίευμα ότι το διοικητικό συμβούλιο ανησυχούσε όλο και περισσότερο για το πώς προχωρούσε η τεχνητή νοημοσύνη και πώς ο Sam Altman μπορεί να μην γνωρίζουν τις συνέπειες. Ένα εσωτερικό
μήνυμα
αναφερόταν στο έργο ως «Q*» ή Q-
star
, σημειώνοντας ότι θα μπορούσε να είναι μια σημαντική ανακάλυψη στην αναζήτηση της startup της τεχνητής νοημοσύνης για τη δημιουργία τεχνητής γενικής νοημοσύνης (AGI).
Το OpenAI πιστεύει ότι το AGI θα μπορούσε να ξεπεράσει τους ανθρώπους στις περισσότερες εργασίες, γεγονός που το καθιστά επίσης εξαιρετικά επικίνδυνο, καθώς μπορεί να περιορίσει τις επιλογές για το τι μπορεί να κάνει ο παγκόσμιος πληθυσμός για να αποκτήσει τα προς το ζην, αν και οι συνέπειες μπορεί να φτάσουν σε μια εντελώς νέα κλίμακα. Δεδομένων σχεδόν απεριόριστων πόρων, το νέο
μοντέλο
AGI μπόρεσε να λύσει ορισμένα μαθηματικά προβλήματα, και παρόλο που αυτά τα προβλήματα ήταν ισοδύναμα με μαθητές βαθμίδας, η επίτευξή τους έκανε τους ερευνητές του OpenAI πολύ αισιόδοξους για το μέλλον του Q*.
Επί του παρόντος, η τεχνητή νοημοσύνη δεν μπορεί να λύσει αξιόπιστα μαθηματικά προβλήματα, και αυτό είναι το πλεονέκτημα του AGI. Η έκθεση αναφέρει περαιτέρω ότι οι ερευνητές πιστεύουν ότι στην επίλυση μαθηματικών προβλημάτων υπάρχει μόνο μία σωστή απάντηση και εάν η τεχνητή νοημοσύνη μπορεί να κλιμακώσει αυτό το εμπόδιο, θεωρείται τεράστιο ορόσημο. Από τη στιγμή που η τεχνητή νοημοσύνη μπορεί να λύνει με συνέπεια μαθηματικά προβλήματα, μπορεί να λάβει αποφάσεις που μοιάζουν με την ανθρώπινη νοημοσύνη ενώ παράλληλα εργάζεται στην επιστημονική έρευνα.
Η επιστολή που συντάχθηκε από ερευνητές του OpenAI μιλά για τους κινδύνους που παρουσιάζει η τεχνητή νοημοσύνη στην ανθρωπότητα, αλλά οι ακριβείς ανησυχίες για την ασφάλεια δεν έχουν διευκρινιστεί. Υπήρξαν ατελείωτες συζητήσεις για το πώς η τεχνητή νοημοσύνη μπορεί να οδηγήσει στην καταστροφή της ανθρωπότητας, με ακόμη και προηγούμενα δημοσιευμένα μέσα που απεικονίζουν αυτούς τους κινδύνους όταν οι άνθρωποι δεν βαδίζουν προσεκτικά. Με όλο το δράμα που έχουν βιώσει το OpenAI, ο Sam Altman και αμέτρητοι άλλοι αυτές τις τελευταίες ημέρες, φαίνεται ότι όλοι τους πρέπει να πάρουν μια ανάσα σύντομα και να κάνουν ουσιαστικές συζητήσεις για το πώς να προχωρήσουν αυτό το νέο μοντέλο χωρίς προαναφερθέντες κινδύνους.
Πηγή ειδήσεων:
Reuters
VIA:
wccftech.com

