Τεχνολογία

Claude στον πόλεμο παρά την απαγόρευση Τραμπ: Το «AI παράδοξο» του Πενταγώνου

Claude στον πόλεμο παρά την απαγόρευση Τραμπ: Το «AI παράδοξο» του Πενταγώνου

Πηγή Φωτογραφίας: Reuters/Claude στον πόλεμο παρά την απαγόρευση Τραμπ: Το «AI παράδοξο» του Πενταγώνου

Ρεπορτάζ αναφέρουν ότι το μοντέλο της Anthropic χρησιμοποιήθηκε για ανάλυση πληροφοριών και επιχειρησιακές προσομοιώσεις, ενώ ο Λευκός Οίκος είχε μόλις διατάξει «άμεση διακοπή». Η υπόθεση δείχνει πόσο βαθιά έχει ήδη ενσωματωθεί η τεχνητή νοημοσύνη στις στρατιωτικές διαδικασίες.

Η χρήση που «έτρεξε» πιο γρήγορα από την απαγόρευση

Οι αμερικανικές ένοπλες δυνάμεις φέρεται να χρησιμοποίησαν το Claude, το μοντέλο τεχνητής νοημοσύνης της Anthropic, κατά την επίθεση κατά του Ιράν, παρότι είχε προηγηθεί πολιτική απόφαση του Ντόναλντ Τραμπ για άμεσο «πάγωμα» της χρήσης του από ομοσπονδιακές υπηρεσίες. Η πληροφορία δημοσιοποιήθηκε από διεθνή μέσα, με την υπόθεση να αποκτά ιδιαίτερη βαρύτητα, όχι μόνο λόγω της χρονικής σύμπτωσης, αλλά επειδή αποκαλύπτει κάτι βαθύτερο: όταν ένα εργαλείο AI έχει ήδη ενσωματωθεί σε κρίσιμες διαδικασίες, η αποσύνδεσή του δεν γίνεται με ένα κουμπί.

Σύμφωνα με τα ρεπορτάζ, το Claude χρησιμοποιήθηκε για ανάλυση πληροφοριών, για υποστήριξη επιλογής στόχων και για προσομοιώσεις επιχειρήσεων. Πρόκειται για λειτουργίες που αποτελούν πυρήνα των σύγχρονων στρατιωτικών επιτελείων, ειδικά σε περιβάλλοντα όπου ο χρόνος αντίδρασης είναι περιορισμένος και η πληροφορία έχει τεράστιο όγκο.

Τι δείχνει το περιστατικό για τη σχέση στρατού–τεχνολογίας

Η αντίφαση είναι εντυπωσιακή: από τη μία πλευρά, ο Λευκός Οίκος εμφανίζεται να ζητά «καθαρό διαχωρισμό» από μια εταιρεία AI. Από την άλλη, στρατιωτικές δομές φαίνεται να συνεχίζουν να χρησιμοποιούν το εργαλείο, έστω και μέσα σε μεταβατικό πλαίσιο. Αυτό δεν είναι απλώς διοικητική ασυνεννοησία. Είναι εικόνα μιας πραγματικότητας όπου η τεχνητή νοημοσύνη έχει μπει τόσο βαθιά στη ροή εργασιών, ώστε η πολιτική απόφαση να απαιτεί χρόνο για να γίνει τεχνική εφαρμογή.

Ακόμη και δημοσιεύματα που παρακολουθούν στενά την υπόθεση επισημαίνουν ότι η αποσύνδεση «γρήγορα» είναι εξαιρετικά δύσκολη, γιατί τέτοιες τεχνολογίες δεν λειτουργούν ως ένα ξεχωριστό app. Έχουν ενσωματωθεί σε συστήματα, συνεργασίες, εργολάβους, υπεργολάβους και διαβαθμισμένα δίκτυα, όπου κάθε αλλαγή χρειάζεται έλεγχο, νέα πιστοποίηση και διαδρομές αντικατάστασης.

Πώς φτάσαμε εδώ: η κλιμάκωση με την Anthropic και η «κόκκινη γραμμή»

Η ρήξη, όπως περιγράφεται, έχει ρίζες σε μια θεμελιώδη διαφωνία: η Anthropic είχε θέσει περιορισμούς στη χρήση των μοντέλων της σε εφαρμογές που σχετίζονται με μαζική επιτήρηση και με αμιγώς βίαιες/πολεμικές χρήσεις, επικαλούμενη τους όρους χρήσης και τις πολιτικές ασφαλείας της. Σε αυτό το πλαίσιο, η κυβέρνηση Τραμπ και το Πεντάγωνο εμφανίζονται να πίεσαν για πλήρη και απεριόριστη πρόσβαση «για κάθε νόμιμο σκοπό».

Η ένταση πήρε δημόσιες διαστάσεις, όταν ο υπουργός Άμυνας Πιτ Χέγκσεθ κατηγόρησε την Anthropic για «αλαζονεία και προδοσία» και μίλησε ανοιχτά για την ανάγκη το Πεντάγωνο να έχει ανεμπόδιστη χρήση εργαλείων AI.

Το «παράθυρο» των έξι μηνών και η παραδοχή ότι δεν κόβεται αμέσως

Παρά τη σκληρή ρητορική, το ίδιο το Πεντάγωνο φαίνεται να αναγνώρισε στην πράξη κάτι κρίσιμο: δεν μπορεί να «τραβήξει την πρίζα» από τη μία μέρα στην άλλη. Σε σχετικά ρεπορτάζ επισημαίνεται ότι δόθηκε μεταβατικό διάστημα έως έξι μηνών για «ομαλή μετάβαση» σε εναλλακτικές λύσεις, ακριβώς επειδή η τεχνολογία είναι ήδη ευρέως χρησιμοποιούμενη.

Αυτό εξηγεί γιατί μπορεί να βλέπουμε ταυτόχρονα «απαγόρευση» και «χρήση»: η πολιτική απόφαση τρέχει σε ένα επίπεδο, αλλά τα επιχειρησιακά συστήματα κινούνται με άλλο ρυθμό, ειδικά όταν εμπλέκονται μεγάλα συμβόλαια, κρίσιμες αποστολές και διαβαθμισμένα περιβάλλοντα.

Η OpenAI «μπαίνει» στο κενό: συμφωνία με το Πεντάγωνο και όροι ασφαλείας

Σε αυτό το περιβάλλον, η OpenAI εμφανίζεται να καλύπτει το κενό, με συμφωνία για ανάπτυξη των μοντέλων της σε διαβαθμισμένα δίκτυα του Υπουργείου Άμυνας. Το Reuters μετέδωσε ότι η OpenAI παρουσίασε «πολυεπίπεδες δικλείδες» στη συμφωνία της, υπογραμμίζοντας ότι υπάρχουν συγκεκριμένες κόκκινες γραμμές, όπως η μη χρήση για μαζική εσωτερική παρακολούθηση και περιορισμοί σε αυτοματοποιημένη χρήση βίας.

Το ενδιαφέρον εδώ είναι ότι, δημόσια τουλάχιστον, οι «κόκκινες γραμμές» που περιγράφονται από την OpenAI μοιάζουν κοντά σε εκείνες που επικαλούνταν η Anthropic. Ακριβώς γι’ αυτό το θέμα παίρνει και πολιτική χροιά: δεν είναι μόνο ποιο μοντέλο είναι καλύτερο, αλλά ποιος θέτει τους κανόνες, ποιος τους επιβάλλει και ποιος υποχωρεί.

Η ουσία της ιστορίας: όταν η τεχνολογία προηγείται της πολιτικής

Αν κάτι αναδεικνύει η υπόθεση, είναι το AI παράδοξο της εποχής. Η τεχνητή νοημοσύνη έχει ήδη περάσει από την «καινοτομία» στην υποδομή. Και όταν μια τεχνολογία γίνεται υποδομή, η πολιτική απόφαση να την κόψεις δεν είναι απλή απαγόρευση. Είναι αλλαγή συστήματος.

Γι’ αυτό και το περιστατικό αποκτά μεγαλύτερη σημασία από ένα ακόμη επεισόδιο στην αντιπαράθεση κυβέρνησης–Big Tech. Δείχνει ότι η επόμενη μεγάλη συζήτηση δεν θα είναι μόνο αν η AI θα χρησιμοποιείται σε στρατιωτικές δομές, αλλά πώς θα χρησιμοποιείται, με ποιους ελέγχους, με ποια λογοδοσία και σε ποιο σημείο το κράτος θα μπορεί πραγματικά να ελέγξει μια τεχνολογία που έχει ήδη απλωθεί παντού.

Πηγή: Pagenews.gr

Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο

ΚΑΤΕΒΑΣΤΕ ΤΟ APP ΤΟΥ PAGENEWS PAGENEWS.gr - App Store PAGENEWS.gr - Google Play

Το σχόλιο σας

Loading Comments