Τεχνολογία

Anthropic: Ρήγμα με το Πεντάγωνο για τη χρήση της AI σε όπλα και εσωτερική παρακολούθηση

Anthropic: Ρήγμα με το Πεντάγωνο για τη χρήση της AI σε όπλα και εσωτερική παρακολούθηση

Πηγή Φωτογραφίας: Reuters/Anthropic: Ρήγμα με το Πεντάγωνο για τη χρήση της AI σε όπλα και εσωτερική παρακολούθηση

Η διαμάχη για τα όρια της τεχνητής νοημοσύνης δοκιμάζει τις σχέσεις Σίλικον Βάλεϊ – Ουάσιγκτον σε μια κρίσιμη στιγμή για την εταιρεία

Σοβαρές τριβές έχουν ανακύψει ανάμεσα στην Anthropic και το Πεντάγωνο, με επίκεντρο τον τρόπο αξιοποίησης της τεχνητής νοημοσύνης σε στρατιωτικές και κρατικές εφαρμογές. Σύμφωνα με πληροφορίες που επικαλείται το Reuters, η εταιρεία ανάπτυξης AI εκφράζει έντονες αντιρρήσεις για τη χρήση των μοντέλων της σε αυτόνομη στόχευση όπλων αλλά και σε επιχειρήσεις εσωτερικής παρακολούθησης στις Ηνωμένες Πολιτείες.

Η διαμάχη αυτή δεν είναι απλώς τεχνικής φύσης. Αγγίζει τον πυρήνα της συζήτησης γύρω από την ηθική της τεχνητής νοημοσύνης και το κατά πόσο οι ιδιωτικές εταιρείες μπορούν – ή πρέπει – να θέτουν περιορισμούς στη χρήση της τεχνολογίας τους από κρατικούς φορείς. Ταυτόχρονα, αποτελεί μια πρώιμη αλλά κρίσιμη δοκιμασία για τις σχέσεις της Σίλικον Βάλεϊ με την Ουάσιγκτον, σε μια περίοδο που οι δύο πλευρές επιχειρούν να αφήσουν πίσω τους χρόνια αμοιβαίας καχυποψίας.

Αδιέξοδο σε σύμβαση εκατοντάδων εκατομμυρίων

Οι συνομιλίες ανάμεσα στην Anthropic και το αμερικανικό υπουργείο Άμυνας πραγματοποιούνται στο πλαίσιο σύμβασης που θα μπορούσε να φτάσει τα 200 εκατομμύρια δολάρια. Παρά τις εκτενείς διαπραγματεύσεις, οι δύο πλευρές φαίνεται να έχουν οδηγηθεί σε αδιέξοδο. Η εταιρεία επιμένει σε αυστηρές δικλίδες ασφαλείας για την αποτροπή χρήσεων που θεωρεί επικίνδυνες ή αντίθετες με τις αρχές της, ενώ αξιωματούχοι του Πενταγώνου αντιδρούν, θεωρώντας ότι τέτοιοι περιορισμοί περιορίζουν την επιχειρησιακή ευελιξία.

Σύμφωνα με πηγές που γνωρίζουν το περιεχόμενο των συζητήσεων, το Πεντάγωνο υποστηρίζει ότι η εμπορική τεχνολογία τεχνητής νοημοσύνης θα πρέπει να μπορεί να αξιοποιείται ανεξάρτητα από τις εσωτερικές πολιτικές χρήσης των εταιρειών, εφόσον η χρήση αυτή συμμορφώνεται με την αμερικανική νομοθεσία. Η θέση αυτή αποτυπώνεται και σε υπόμνημα του υπουργείου της 9ης Ιανουαρίου, το οποίο αφορά τη στρατηγική των ΗΠΑ για την AI.

Οι ανησυχίες για όπλα και παρακολούθηση

Από την πλευρά της, η Anthropic έχει εκφράσει ξεκάθαρα τις ανησυχίες της ότι τα εργαλεία της θα μπορούσαν να αξιοποιηθούν είτε για την παρακολούθηση Αμερικανών πολιτών είτε για τη στόχευση όπλων χωρίς επαρκή ανθρώπινη εποπτεία. Πρόκειται για σενάρια που η εταιρεία θεωρεί κόκκινες γραμμές, καθώς έρχονται σε αντίθεση με τη φιλοσοφία με την οποία εκπαιδεύονται τα μοντέλα της, τα οποία έχουν σχεδιαστεί ώστε να αποφεύγουν ενέργειες που ενδέχεται να προκαλέσουν βλάβη.

Παρά την έντονη αντίδραση του Πενταγώνου στις κατευθυντήριες γραμμές της εταιρείας, κυβερνητικοί αξιωματούχοι αναγνωρίζουν ότι η συνεργασία με την Anthropic είναι δύσκολο να παρακαμφθεί. Τα μοντέλα της εταιρείας δεν είναι απλά έτοιμα προς χρήση προϊόντα· απαιτούν προσαρμογή και αναδιαμόρφωση από το ίδιο το προσωπικό της Anthropic, γεγονός που της δίνει ουσιαστικό ρόλο στον τρόπο με τον οποίο θα χρησιμοποιηθεί η τεχνητή νοημοσύνη.

Η θέση της Anthropic και το πολιτικό πλαίσιο

Εκπρόσωπος της Anthropic δήλωσε ότι η τεχνητή νοημοσύνη της «χρησιμοποιείται εκτενώς για αποστολές εθνικής ασφάλειας από την κυβέρνηση των ΗΠΑ» και ότι βρίσκονται σε παραγωγικές συζητήσεις με το υπουργείο Άμυνας για τη συνέχιση αυτής της συνεργασίας. Το υπουργείο, από την πλευρά του, δεν απάντησε σε σχετικό αίτημα σχολιασμού.

Η ένταση αυτή έρχεται σε μια ιδιαίτερα ευαίσθητη στιγμή για την Anthropic. Η εταιρεία, με έδρα το Σαν Φρανσίσκο, προετοιμάζεται για μια ενδεχόμενη δημόσια προσφορά, ενώ τα τελευταία χρόνια έχει επενδύσει σημαντικούς πόρους για να εδραιωθεί ως βασικός παίκτης στον τομέα της εθνικής ασφάλειας. Παράλληλα, επιδιώκει να διαδραματίσει ενεργό ρόλο στη διαμόρφωση της κυβερνητικής πολιτικής για την τεχνητή νοημοσύνη, προωθώντας μια πιο προσεκτική και ηθικά προσανατολισμένη προσέγγιση.

Ανάμεσα στους «εκλεκτούς» του Πενταγώνου

Η Anthropic συγκαταλέγεται στις λίγες μεγάλες εταιρείες AI που εξασφάλισαν συμβάσεις με το Πεντάγωνο το προηγούμενο έτος. Στην ίδια κατηγορία βρίσκονται τεχνολογικοί κολοσσοί όπως η Google, η xAI του Ίλον Μασκ και η OpenAI. Η επιλογή αυτή υπογραμμίζει τη σημασία που αποδίδει η αμερικανική κυβέρνηση στην τεχνητή νοημοσύνη ως κρίσιμο εργαλείο για τη σύγχρονη άμυνα.

Ωστόσο, η περίπτωση της Anthropic ξεχωρίζει, καθώς η εταιρεία έχει επιλέξει να θέσει πιο σαφή όρια στη χρήση της τεχνολογίας της, ακόμη κι αν αυτό συνεπάγεται σύγκρουση με ισχυρούς κρατικούς πελάτες.

Οι παρεμβάσεις του Ντάριο Αμοντέι

Το ζήτημα έχει λάβει και δημόσια διάσταση μέσω των παρεμβάσεων του διευθύνοντος συμβούλου της Anthropic, Ντάριο Αμοντέι. Σε πρόσφατο άρθρο στο προσωπικό του ιστολόγιο, προειδοποίησε ότι η τεχνητή νοημοσύνη οφείλει να υποστηρίζει την εθνική άμυνα «με όλους τους τρόπους, εκτός από εκείνους που θα μας έκαναν να μοιάζουμε περισσότερο με τους αυταρχικούς αντιπάλους μας».

Ο Αμοντέι έχει στο παρελθόν συγκρουστεί με την κυβέρνηση Τραμπ για παρόμοια ζητήματα, όπως ανέφερε το Semafor. Μάλιστα, ήταν μεταξύ των συνιδρυτών της Anthropic που κατήγγειλαν δημόσια θανατηφόρους πυροβολισμούς εναντίον Αμερικανών πολιτών κατά τη διάρκεια διαμαρτυριών για τη δράση της υπηρεσίας ICE στη Μινεάπολη, χαρακτηρίζοντάς τους ως «φρίκη».

Οι εξελίξεις αυτές έχουν εντείνει τις ανησυχίες σε τμήματα της Σίλικον Βάλεϊ ότι τα εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να αξιοποιηθούν από την κυβέρνηση για την άσκηση βίας ή για πρακτικές που συγκρούονται με τις θεμελιώδεις αξίες των δημιουργών τους. Το αν η Anthropic θα καταφέρει να επιβάλει τα όριά της ή αν τελικά θα υποχωρήσει μπροστά στις απαιτήσεις του Πενταγώνου παραμένει ανοιχτό ερώτημα, με ευρύτερες συνέπειες για ολόκληρο τον κλάδο της AI.

Πηγή: Pagenews.gr

Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο

ΚΑΤΕΒΑΣΤΕ ΤΟ APP ΤΟΥ PAGENEWS PAGENEWS.gr - App Store PAGENEWS.gr - Google Play

Το σχόλιο σας

Loading Comments