«Η ΑΙ μπορεί να καταστρέψει την ανθρωπότητα ακόμη και σε 2 χρόνια»
Ο ερευνητής AI Eliezer Yudkowsky, που είναι γνωστός για απαισιοδοξία του, «ξαναχτυπά» με
μι
α νέα πρόβλεψη για το μέλλον της ανθρωπότητας.
«Αν με έβαζες με την πλάτη στον τοίχο και με ανάγκαζες να κάνω εκτίμηση με πιθανότητες, θα έλεγα ότι ο χρόνος που μας απομένει αντιστοιχεί πιο πολύ σε πέντε χρόνια παρά με 50. Θα μπορούσαν να είναι δύο χρόνια, θα μπορούσαν να είναι και δέκα»
δήλωσε σε μία συνέντευξη στον Guardian που έχει προκαλέσει αίσθηση.
Εάν αναρωτιέστε τι εννοεί ο Yudkowsky με την “χρονική διαδρομή” που απομένει σε αυτό το πλαίσιο, ο
δημοσιογράφος
του Guardian, Tom Lamont, το ερμήνευσε σαν κάτι που μοιάζει με ταινίες, όπως ο “
Εξολοθρευτής
” όπου τα ρομπότ καταστρέφουν τον κόσμο, ή το “
Matrix
” όπου οι άνθρωποι ζουν εγκλωβισμένοι σε έναν εικονικό κόσμο.
«Το πρόβλημα είναι ότι οι άνθρωποι δεν το συνειδητοποιούν»
δήλωσε στην εφημερίδα ο Yudkowsky, ιδρυτής του Ινστιτούτου Έρευνας Τεχνητής
Νοημοσύνη
ς στην
Καλιφόρνια
.
«Έχουμε μόνο μια μικρή πιθανότητα να επιβιώσει η ανθρωπότητα».
Οι επιφυλάξεις για την AI
Το συγκεκριμένο άρθρο του Guardian αξίζει σίγουρα να το διαβάσει κανείς. Ο δημοσιογράφος Tom Lamont μίλησε με πολλές σημαντικές προσωπικότητες του χώρου, όπως ο Brian Merchant και η Molly Crabapple, με τον βασικό άξονα του άρθρου να είναι ο σκεπτικισμός απέναντι στην άποψη ότι κάθε νέα τεχνολογία πρέπει να υιοθετείται χωρίς σκέψη, ακόμα κι αν δεν είναι καλή για την ανθρωπότητα.
Αυτές τις μέρες, μεγάλο μέρος της κριτικής αυτής στρέφεται στην Τεχνητή Νοημοσύνη (AI). Γιατί, υποστηρίζουν οι επικριτές, πρέπει να αντιμετωπίζουμε την τεχνολογία αυτή ως κάτι αναπόφευκτο, ακόμα κι αν φαίνεται ικανή να εξαφανίσει και να αποσταθεροποιήσει μεγάλο αριθμό θέσεων εργασίας;
Ή, στην περίπτωση του Yudkowsky, αν η τεχνολογία αυτή παρουσιάζει πιθανό υπαρξιακό κίνδυνο. Τα σχόλιά του ήταν τα πιο προκλητικά στο άρθρο, κάτι που ίσως δεν εκπλήσσει όσους γνωρίζουν τις απόψεις του. Οι παρατηρητές της τεχνητής νοημοσύνης μπορεί να θυμούνται, για παράδειγμα, ότι πέρυσι ζήτησε να
“βομβαρδιστούν” κέντρα δεδομένων
για να σταματήσει η ανάπτυξη της AI.
Ο Yudkowsky επαναξιολόγησε τη συγκεκριμένη δήλωση, όπως είπε στον Guardian, αλλά μόνο σε έναν βαθμό: εξακολουθεί να υποστηρίζει την ιδέα των βομβαρδισμών σε data centers, δήλωσε, αλλά δεν πιστεύει πια ότι θα έπρεπε να χρησιμοποιηθούν
πυρηνικά
όπλα για αυτόν τον σκοπό.
«Τώρα θα διάλεγα πιο προσεκτικό λεξιλόγιο», είπε στην εφημερίδα.
// Allow detecting when fb api is loaded.
function Deferred() {
var self = this;
this.promise = new Promise( function( resolve, reject ) {
self.reject = reject;
self.resolve = resolve;
});
}
window.fbLoaded = new Deferred();
window.fbAsyncInit = function() {
FB.init({
appId : ‘
‘,
autoLogAppEvents : true,
xfbml : true,
version : ‘v3.0′
});
window.fbLoaded.resolve();
};
(function(d, s, id){
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) {return;}
js = d.createElement(s); js.id = id;
js.src = “https://connect.facebook.net/en_US/sdk.js”;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));
VIA:
FoxReport.gr
