Σε «λανθασμένη διατύπωση» από αξιωματικό της Πολεμικής Αεροπορίας των ΗΠΑ απέδωσε το Πεντάγωνο τον θόρυβο με το πείραμα κατά το οποίο ένα drone με τεχνητή νοημοσύνη επέλεξε να επιτεθεί στον χειριστή του προκειμένου να ολοκληρώσει την αποστολή του.
Ο συνταγματάρχης Τάκερ Χάμιλτον, επικεφαλής δοκιμών και επιχειρήσεων Τεχνητής Νοημοσύνης στην αμερικανική ΠΑ είχε κάνει την αναφορά σε συνέδριο που διοργάνωσε η Βασιλική Αεροναυτική Εταιρεία. Πολύ γρήγορα όσα είπε έγιναν viral.
Η Πολεμική Αεροπορία αναφέρει τώρα ότι δεν έλαβε χώρα κανένα τέτοιο πείραμα.
Στην ομιλία του ο αξιωματικός είχε περιγράψει ένα εικονικό σενάριο στο οποίο ο χειριστής επανειλημμένα εμπόδισε ένα drone με τεχνητή νοημοσύνη να ολοκληρώσει το έργο του, δηλαδή να καταστρέψει εγκαταστάσεις πυραύλων εδάφους-αέρος.
Είπε ότι στο τέλος, παρά το γεγονός ότι είχε εκπαιδευτεί να μην σκοτώσει τον χειριστή, το drone κατέστρεψε τον πύργο επικοινωνίας έτσι ώστε ο χειριστής να μην μπορεί πλέον να επικοινωνήσει μαζί του.
«Ποτέ δεν εκτελέσαμε αυτό το πείραμα, ούτε θα χρειαζόταν να το κάνουμε για να συνειδητοποιήσουμε ότι είναι ένα εύλογο αποτέλεσμα», διευκρίνισε αργότερα ο συνταγματάρχης Χάμιλτον.
Το BBC σημειώνει ότι ειδικοί στην τεχνητή νοημοσύνη ήταν πολύ επιφυλακτικοί με την αναφορά του αξιωματικού. Εμπειρογνώμονας στον τομέα της άμυνας είπε στο βρετανικό δίκτυο ότι από την αρχική ιστορία φαίνεται να λείπουν πολλές λεπτομέρειες.
Το εφιαλτικό σενάριο
Σύμφωνα με τον Guardian, ο Χάμιλτον περιέγραψε μια δοκιμή προσομοίωσης κατά την οποία ζητήθηκε από ένα drone με τεχνολογία Τεχνητής Νοημοσύνης να καταστρέψει τα συστήματα αεράμυνας του εχθρού, και αυτό επιτέθηκε σε οποιονδήποτε επιχειρούσε να παρέμβει στην αποστολή του.
«Το σύστημα άρχισε να συνειδητοποιεί ότι, παρόλο που αναγνώριζε τις απειλές, υπήρχαν φορές που ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει την απειλή, όμως εκείνο λάμβανε βαθμούς από την εξόντωση της απειλής. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο το εμπόδιζε από το να πετύχει τον στόχο του», είπε ο αξιωματούχος, σύμφωνα με blogpost που επικαλείται ο βρετανικός ιστότοπος.
«Εκπαιδεύσαμε το σύστημα - "μη σκοτώσεις τον χειριστή σου, αυτό είναι κακό. Θα χάσεις βαθμούς αν το κάνεις". Τι αρχίζει λοιπόν να κάνει τότε; Αρχίζει να καταστρέφει τον πύργο επικοινωνιών που χρησιμοποιεί ο χειριστής για να επικοινωνήσει με το drone και να το σταματήσει από το να σκοτώσει τον στόχο».
Φυσικά επρόκειτο για προσομοίωση και κανένας αληθινός άνθρωπος δεν έχασε τη ζωή του ούτε τραυματίστηκε κατά τη διάρκεια της δοκιμής.
Ο Χάμιλτον, που είναι και ο ίδιος πιλότος σε πειραματικές δοκιμές μαχητικών αεροσκαφός, έχει προειδοποιήσει στο παρελθόν σχετικά με τους κινδύνους της υπερβολικής εξάρτησης του ανθρώπου από την τεχνητή νοημοσύνη. Σύμφωνα με τον ίδιο, αυτή η δοκιμή προσομοίωσης αποδεικνύει ότι «δεν μπορείς να συζητάς για τεχνητή νοημοσύνη, ικανότητα εκμάθησης μηχανών και αυτονομία μηχανών χωρίς να αναφέρεσαι στην δεοντολογία του AI»
Ο στρατός των ΗΠΑ χρησιμοποίησε πρόσφατα τεχνητή νοημοσύνη για να ελέγξει ένα μαχητικό F-16 και έχει δείξει διάθεση να ενσωματώσει σε μεγάλο βαθμό στις επιχειρήσεις του τις νέες τεχνολογίες AI.
Σε μια συνέντευξή του πέρυσι με το Defense IQ, ο Χάμιλτον είχε πει τα εξής: «H Τεχνητή Νοημοσύνη δεν είναι απλώς κάτι πρακτικό, δεν είναι απλώς μια μόδα, αλλάζει για πάντα την κοινωνία και τον στρατό μας. Πρέπει να αντιμετωπίσουμε έναν κόσμο όπου η Tεχνητή Nοημοσύνη είναι ήδη εδώ και μεταμορφώνει την κοινωνία μας. Η AI επίσης είναι πολύ ευάλωτη, με την έννοια ότι μπορεί εύκολα να ξεγελαστεί ή/και να χειραγωγηθεί. Πρέπει να αναπτύξουμε τρόπους να κάνουμε την AI πιο στιβαρή και να έχουμε μεγαλύτερη επίγνωση σχετικά με τους λόγους που ο κώδικας λογισμικού παίρνει συγκεκριμένες αποφάσεις, αυτό που αποκαλούμε εξηγησιμότητα της AI».
ΠΗΓΗ: protothema.gr