Μετά από χρόνια έκφρασης προβληματισμών σχετικά με το ζήτημα της ανάπτυξης θανατηφόρων αυτόνομων όπλων τεχνητής νοημοσύνης, μεγάλος αριθμός κορυφαίων «παικτών» του χώρου υπέγραψαν δέσμευση πως «δεν θα συμμετάσχουν ή θα υποστηρίξουν την ανάπτυξη, κατασκευή, εμπόριο ή χρήση θανατηφόρων αυτόνομων όπλων».
Τη δέσμευση/ διακήρυξη αυτή έχουν υπογράψει πάνω από 160 εταιρείες και οργανισμοί που σχετίζονται με την τεχνητή νοημοσύνη (ΑΙ) από 36 χώρες, και 2.400 άτομα από 90 χώρες. Μεταξύ αυτών περιλαμβάνονται η GoogleDeepMind, το University College London, το XPRIZE Foundation, η ClearPathRobotics/OTTO Motors, η European Association for AI (EurAI), η Swedish AISociety (SAIS), o Ντέμης Χασάμπης, ο Έλον Μασκ και πολλοί άλλοι.
Ο Μαξ Τέγκμαρκ, πρόεδρος του Future of Life Institute (FLI) που διοργάνωσε την όλη προσπάθεια, ανακοίνωσε τη δέσμευση/ διακήρυξη στις 18 Ιουλίου στη Στοκχόλμη της Σουηδίας, κατά την ετήσια International Joint Conference onArtificial Intelligence (IJCAI), που προσελκύει πάνω από 5.000 από τους κορυφαίους ερευνητές του κόσμου. H SAIS και το EurAI ήταν επίσης διοργανωτές του φετινού IJCAI.
«Χαίρομαι που βλέπω τους ηγέτες τα ΑΙ να περνούν από τα λόγια στη δράση, εφαρμόζοντας μια πολιτική την οποία οι πολιτικοί μέχρι τώρα δεν έχουν καταφέρει να θέσουν σε εφαρμογή. Η ΑΙ έχει μεγάλες δυνατότητες να βοηθήσει τον κόσμο- αν στιγματίσουμε και αποτρέψουμε την κατάχρησή της. Όπλα τεχνητής νοημοσύνης που αυτόνομα αποφασίζουν να σκοτώνουν ανθρώπους είναι το ίδιο απεχθή και αποσταθεροποιητικά με τα βιολογικά όπλα, και θα έπρεπε να αντιμετωπίζονται με τον ίδιο τρόπο» είπε ο Τέγκμαρκ.
Τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS- Lethal AutonomousWeapons Systems) είναι όπλα που μπορούν να ταυτοποιούν, στοχεύουν και σκοτώνουν ανθρώπους χωρίς την παρουσία ανθρώπους στο «κύκλωμα». Αυτό σημαίνει πως η τελική απόφαση χρήσης θανατηφόρας βίας δεν λαμβάνονται από άνθρωπο, αλλά από το ίδιο το αυτόνομο οπλικό σύστημα. Σημειώνεται ότι στα στρατιωτικά drones που χρησιμοποιούνται σήμερα δεν ισχύει αυτό, καθώς είναι υπό ανθρώπινο έλεγχο- ενώ ο ορισμός αυτός δεν εμπεριέχει και αυτόνομα συστήματα με δυνατότητες αυτοάμυνας απέναντι σε άλλα οπλικά συστήματα.
Πέρα από τα ηθικά ζητήματα που έχουν να κάνουν με τα LAWS, πολλοί υπέρμαχοι μιας διεθνούς απαγόρευσής τους προβληματίζονται πως θα είναι δύσκολος ο έλεγχός τους, καθώς θα είναι ευκολότερο το «χακάρισμά» τους και θα είναι πιο πιθανό να καταλήξουν στη μαύρη αγορά και να πέσουν στα χέρια κρατών- παριών, απολυταρχικών καθεστώτων, τρομοκρατών κ.α., με απρόβλεπτες αποσταθεροποιητικές συνέπειες.
Τον Δεκέμβριο του 2016, η Review Conference of the Convention onConventional Weapons (CCW) άρχισε τις επίσημες συζητήσεις για τα LAWS στα Ηνωμένα Έθνη. Στην πιο πρόσφατη συνάντηση, τον Απρίλιο, 26 χώρες είχαν ανακοινώσει τη στήριξή τους για κάποιου είδους απαγόρευση, περιλαμβανομένης της Κίνας, στο πρότυπο των απαγορεύσεων στα βιολογικά, χημικά και διαστημικά όπλα. Η επόμενη συνάντηση για τα LAWS θα γίνει τον Αύγουστο.
* Οι απόψεις του ιστολογίου μπορεί να μη συμπίπτουν με τις απόψεις του/της αρθρογράφου ή τα περιεχόμενα του άρθρου.
Τη δέσμευση/ διακήρυξη αυτή έχουν υπογράψει πάνω από 160 εταιρείες και οργανισμοί που σχετίζονται με την τεχνητή νοημοσύνη (ΑΙ) από 36 χώρες, και 2.400 άτομα από 90 χώρες. Μεταξύ αυτών περιλαμβάνονται η GoogleDeepMind, το University College London, το XPRIZE Foundation, η ClearPathRobotics/OTTO Motors, η European Association for AI (EurAI), η Swedish AISociety (SAIS), o Ντέμης Χασάμπης, ο Έλον Μασκ και πολλοί άλλοι.
Ο Μαξ Τέγκμαρκ, πρόεδρος του Future of Life Institute (FLI) που διοργάνωσε την όλη προσπάθεια, ανακοίνωσε τη δέσμευση/ διακήρυξη στις 18 Ιουλίου στη Στοκχόλμη της Σουηδίας, κατά την ετήσια International Joint Conference onArtificial Intelligence (IJCAI), που προσελκύει πάνω από 5.000 από τους κορυφαίους ερευνητές του κόσμου. H SAIS και το EurAI ήταν επίσης διοργανωτές του φετινού IJCAI.
«Χαίρομαι που βλέπω τους ηγέτες τα ΑΙ να περνούν από τα λόγια στη δράση, εφαρμόζοντας μια πολιτική την οποία οι πολιτικοί μέχρι τώρα δεν έχουν καταφέρει να θέσουν σε εφαρμογή. Η ΑΙ έχει μεγάλες δυνατότητες να βοηθήσει τον κόσμο- αν στιγματίσουμε και αποτρέψουμε την κατάχρησή της. Όπλα τεχνητής νοημοσύνης που αυτόνομα αποφασίζουν να σκοτώνουν ανθρώπους είναι το ίδιο απεχθή και αποσταθεροποιητικά με τα βιολογικά όπλα, και θα έπρεπε να αντιμετωπίζονται με τον ίδιο τρόπο» είπε ο Τέγκμαρκ.
Τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS- Lethal AutonomousWeapons Systems) είναι όπλα που μπορούν να ταυτοποιούν, στοχεύουν και σκοτώνουν ανθρώπους χωρίς την παρουσία ανθρώπους στο «κύκλωμα». Αυτό σημαίνει πως η τελική απόφαση χρήσης θανατηφόρας βίας δεν λαμβάνονται από άνθρωπο, αλλά από το ίδιο το αυτόνομο οπλικό σύστημα. Σημειώνεται ότι στα στρατιωτικά drones που χρησιμοποιούνται σήμερα δεν ισχύει αυτό, καθώς είναι υπό ανθρώπινο έλεγχο- ενώ ο ορισμός αυτός δεν εμπεριέχει και αυτόνομα συστήματα με δυνατότητες αυτοάμυνας απέναντι σε άλλα οπλικά συστήματα.
Πέρα από τα ηθικά ζητήματα που έχουν να κάνουν με τα LAWS, πολλοί υπέρμαχοι μιας διεθνούς απαγόρευσής τους προβληματίζονται πως θα είναι δύσκολος ο έλεγχός τους, καθώς θα είναι ευκολότερο το «χακάρισμά» τους και θα είναι πιο πιθανό να καταλήξουν στη μαύρη αγορά και να πέσουν στα χέρια κρατών- παριών, απολυταρχικών καθεστώτων, τρομοκρατών κ.α., με απρόβλεπτες αποσταθεροποιητικές συνέπειες.
Τον Δεκέμβριο του 2016, η Review Conference of the Convention onConventional Weapons (CCW) άρχισε τις επίσημες συζητήσεις για τα LAWS στα Ηνωμένα Έθνη. Στην πιο πρόσφατη συνάντηση, τον Απρίλιο, 26 χώρες είχαν ανακοινώσει τη στήριξή τους για κάποιου είδους απαγόρευση, περιλαμβανομένης της Κίνας, στο πρότυπο των απαγορεύσεων στα βιολογικά, χημικά και διαστημικά όπλα. Η επόμενη συνάντηση για τα LAWS θα γίνει τον Αύγουστο.
* Οι απόψεις του ιστολογίου μπορεί να μη συμπίπτουν με τις απόψεις του/της αρθρογράφου ή τα περιεχόμενα του άρθρου.
0 Σχόλια