Παραίτηση-καμπανάκι από την Anthropic: «Ο κόσμος βρίσκεται σε κίνδυνο» λόγω AI
Πηγή Φωτογραφίας: Reuters/Παραίτηση-καμπανάκι από την Anthropic: «Ο κόσμος βρίσκεται σε κίνδυνο» λόγω AI
Η συζήτηση για το αν η τεχνητή νοημοσύνη προχωρά πιο γρήγορα απ’ όσο μπορούμε να την ελέγξουμε δεν είναι καινούργια. Όμως όταν η προειδοποίηση έρχεται από μέσα, από ανθρώπους που χτίζουν τις «δικλίδες ασφαλείας» των πιο προηγμένων μοντέλων, αποκτά άλλη ένταση. Αυτό ακριβώς συνέβη με την αποχώρηση του Μρινάνκ Σάρμα, υψηλόβαθμου στελέχους της Anthropic, της εταιρείας πίσω από το chatbot Claude, ο οποίος ανακοίνωσε πως παραιτείται, γράφοντας πως «ο κόσμος βρίσκεται σε κίνδυνο».
Το «αντίο» από την Anthropic και το μήνυμα που άναψε φωτιές
Στην επιστολή/ανάρτηση που δημοσίευσε, ο Σάρμα εξηγεί ότι, παρότι απόλαυσε τη δουλειά του, θεωρεί πως έχει έρθει η στιγμή να αποχωρήσει. Το πιο ηχηρό σημείο δεν είναι μόνο η φράση-συναγερμός, αλλά και το πλαίσιο: συνδέει την τεχνητή νοημοσύνη με ευρύτερους κινδύνους, μιλώντας για μια εικόνα αλληλένδετων κρίσεων που δεν περιορίζονται στα μοντέλα, στους αλγόριθμους ή στην τεχνολογία καθαυτή.
Η Anthropic έχει «χτίσει» μεγάλο μέρος της δημόσιας εικόνας της πάνω στην ιδέα της ασφαλέστερης ανάπτυξης προηγμένων συστημάτων. Γι’ αυτό και η παραίτηση ενός ανθρώπου που εργαζόταν σε μηχανισμούς προστασίας –στο πρακτικό επίπεδο της καθημερινής μηχανικής– διαβάζεται ως συμβολική ρωγμή: όχι απαραίτητα ότι «κάτι καταρρέει», αλλά ότι ακόμη και οι πιο συγκροτημένες προσπάθειες ασφάλειας μπορεί να μοιάζουν ανεπαρκείς μπροστά στην ταχύτητα της κούρσας.
Από τα εργαστήρια ασφάλειας… στην ποίηση
Ακόμη πιο ενδιαφέρουσα είναι η προσωπική στροφή που ανακοίνωσε ο ίδιος. Ο Σάρμα λέει ότι επιστρέφει στο Ηνωμένο Βασίλειο για να σπουδάσει ποίηση και να αφοσιωθεί στη συγγραφή, δηλώνοντας πως σκοπεύει να «γίνει αόρατος» για ένα διάστημα.
Σε μια εποχή όπου πολλά στελέχη της τεχνολογίας αποχωρούν για να ξεκινήσουν νέα start-ups ή να περάσουν σε ανταγωνιστές, η επιλογή αυτή μοιάζει με απόφαση «διαφυγής» από τον θόρυβο, αλλά και με μια έμμεση δήλωση: ότι οι απαντήσεις δεν βρίσκονται πάντα σε περισσότερη επιτάχυνση και περισσότερη ισχύ, αλλά ίσως σε αναστοχασμό.
Γιατί η ανησυχία γύρω από την AI δεν αφορά μόνο «λάθη» ή «παραισθήσεις»
Όταν η κοινή γνώμη ακούει «κίνδυνοι της AI», συχνά σκέφτεται παραπληροφόρηση, deepfakes ή τα γνωστά λάθη των chatbots. Όμως οι ειδικοί ασφάλειας συζητούν εδώ και καιρό και πιο «βαριές» κατηγορίες κινδύνου: από την κατάχρηση εργαλείων για επιθέσεις κυβερνοασφάλειας, μέχρι τη διευκόλυνση επικίνδυνων γνώσεων. Η ίδια η Anthropic έχει δημοσιεύσει στο παρελθόν αναφορές για κακόβουλη χρήση εργαλείων AI, όπως σε περιπτώσεις όπου συστήματα αξιοποιούνται σε πιο σύνθετες κυβερνοεπιθέσεις (αν και τέτοια περιστατικά σπάνια είναι μονοδιάστατα ή απολύτως αποδιδόμενα σε έναν παράγοντα).
Η ουσία είναι ότι η «ασφάλεια» δεν είναι ένα κουμπί που πατάς. Είναι συνεχής διαπραγμάτευση ανάμεσα σε εμπορική πίεση, τεχνικούς περιορισμούς, ρυθμιστικά κενά και ανθρώπινη συμπεριφορά. Κι όταν ένας άνθρωπος που δούλευε ακριβώς πάνω σε αυτά φεύγει, η αγορά ακούει.
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Το παράλληλο κύμα αποχωρήσεων και ο φόβος για τη νέα οικονομία των chatbots
Η είδηση για τον Σάρμα έρχεται σε μια περίοδο που καταγράφονται κι άλλες αποχωρήσεις με «πολιτικό» ή ηθικό φορτίο. Χαρακτηριστικό παράδειγμα είναι η Ζόι Χίτζιγκ, η οποία ανακοίνωσε ότι παραιτήθηκε από την OpenAI, εκφράζοντας ενστάσεις για την επιλογή ενσωμάτωσης διαφημίσεων στο ChatGPT. Σε άρθρο γνώμης της, προειδοποίησε ότι οι συνομιλίες με chatbots συχνά περιλαμβάνουν εξαιρετικά ευαίσθητα δεδομένα και ότι η αξιοποίησή τους για στοχευμένη διαφήμιση μπορεί να δημιουργήσει κινδύνους χειραγώγησης.
Το ζήτημα εδώ είναι βαθύτερο από το αν «ενοχλούν» οι διαφημίσεις. Αν τα chatbots γίνουν η βασική διεπαφή πληροφόρησης και συμβουλής στην καθημερινότητα, τότε το επιχειρηματικό τους μοντέλο καθορίζει και τις κοινωνικές συνέπειες. Κι αυτή είναι μια συζήτηση που –όπως δείχνουν οι αντιδράσεις στελεχών– μόλις αρχίζει να σκληραίνει.
Η Anthropic στο μικροσκόπιο: ασφάλεια, κριτική και δικαστικές εξελίξεις
Παρά το προφίλ «ασφάλειας πρώτα», η Anthropic δεν έχει μείνει έξω από αντιπαραθέσεις. Το 2025, συμφώνησε σε διακανονισμό 1,5 δισ. δολαρίων σε υπόθεση πνευματικών δικαιωμάτων με συγγραφείς, σε μια από τις πιο ηχηρές υποθέσεις γύρω από το τι δεδομένα χρησιμοποιούνται για εκπαίδευση μοντέλων.
Παράλληλα, δημοσιεύματα έχουν αναδείξει πόσο επιθετική μπορεί να γίνει η «αναζήτηση δεδομένων» στην εποχή της γενετικής AI, με πρακτικές όπως μαζικές ψηφιοποιήσεις βιβλίων και έντονη πίεση για πρόσβαση σε κείμενα μεγάλης κλίμακας.
Μέσα σε αυτό το περιβάλλον, η παραίτηση του Σάρμα λειτουργεί σαν υπενθύμιση ότι η κουβέντα για την AI δεν είναι μόνο τεχνολογική. Είναι νομική, κοινωνική, πολιτισμική και, τελικά, βαθιά ανθρώπινη.
Τι σημαίνει πραγματικά η φράση «ο κόσμος βρίσκεται σε κίνδυνο»
Δεν χρειάζεται δραματοποίηση για να καταλάβει κανείς γιατί τέτοιες δηλώσεις προκαλούν σοκ. Από τη μία, μπορεί να εκληφθούν ως προσωπική αγωνία ή ως φιλοσοφική στάση απέναντι στην εποχή. Από την άλλη, όταν προέρχονται από ειδικούς που είχαν πρόσβαση στις εσωτερικές «γραμμές άμυνας» μιας κορυφαίας εταιρείας, αποκτούν χαρακτήρα προειδοποίησης προς όσους πιστεύουν ότι η τεχνολογία αυτορυθμίζεται.
Το πιο ανησυχητικό δεν είναι ότι κάποιος «φοβάται». Είναι ότι δείχνει να πιστεύει πως τα προβλήματα είναι συστημικά: ότι δεν διορθώνονται με ένα ακόμη patch, μια ακόμη πολιτική χρήσης ή ένα ακόμη φίλτρο, αλλά απαιτούν αλλαγή ρυθμού, στόχων και κινήτρων.
Και κάπως έτσι, μια παραίτηση μετατρέπεται σε καθρέφτη της εποχής: η AI υπόσχεται άλματα παραγωγικότητας, επιστήμης και δημιουργίας, αλλά ταυτόχρονα δοκιμάζει τα όρια της εμπιστοσύνης μας στους θεσμούς, στις εταιρείες και στους ίδιους τους μηχανισμούς ελέγχου.
Πηγή: Pagenews.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας