Καταστροφολογία ή προφητεία; Γιατί οι ειδικοί προειδοποιούν για την AI τώρα
Πηγή Φωτογραφίας: FREEPIK/Καταστροφολογία ή προφητεία; Γιατί οι ειδικοί προειδοποιούν για την AI τώρα
Η τεχνητή νοημοσύνη δεν είναι πια μια «καινούρια τεχνολογία» που δοκιμάζεται σε εργαστήρια. Είναι εργαλείο καθημερινότητας, πλατφόρμα επιχειρηματικών μοντέλων και, ταυτόχρονα, ένας μηχανισμός που μπορεί να επηρεάσει την κοινωνία σε βάθος: από το πώς ενημερωνόμαστε και αγοράζουμε, μέχρι το πώς εργαζόμαστε, ψηφίζουμε, εμπιστευόμαστε και—σε ακραίες περιπτώσεις—κινδυνεύουμε.
Τα τελευταία χρόνια, η AI έχει κατακλύσει τις ειδήσεις με θεαματικές δυνατότητες, όμως μαζί της ανεβαίνει και ένας τόνος προειδοποιήσεων. Η ανησυχία δεν αφορά μόνο το «τι μπορεί να κάνει» ένα μοντέλο, αλλά το ποιος το ελέγχει, γιατί το αναπτύσσει, με τι κίνητρο και με ποια όρια. Κι εκεί ακριβώς έρχεται η μεγάλη λέξη που επανέρχεται όλο και πιο συχνά: έλλειψη κοινού πλαισίου ελέγχου.
Όταν η τεχνολογία επιταχύνει, οι θεσμοί λαχανιάζουν
Η AI εξελίσσεται με ρυθμό που σπάνια έχει προηγούμενο σε τεχνολογικό κύμα. Οι εταιρείες πιέζονται να κυκλοφορήσουν πρώτες, να κερδίσουν μερίδιο, να παρουσιάσουν «την επόμενη έκδοση» πριν το κάνει ο ανταγωνιστής. Αυτή η κούρσα δεν μοιάζει με ήρεμη ανάπτυξη. Μοιάζει με αγώνα δρόμου, όπου κάθε καθυστέρηση θεωρείται απώλεια ευκαιρίας.
Μέσα σε αυτό το σκηνικό, ακόμα και εταιρείες που αυτοπροσδιορίζονται ως «πιο προσεκτικές» ή «πιο safety-first» παραδέχονται ότι η εμπορική πίεση είναι τεράστια. Ο CEO της Anthropic, Dario Amodei, μίλησε ανοιχτά για τη δυσκολία ισορροπίας ανάμεσα στη φιλοσοφία της ασφάλειας και την ένταση της αγοράς, σε μια περίοδο που ο κλάδος κινείται με εξαιρετικά υψηλές προσδοκίες ανάπτυξης.
Το αποτέλεσμα; Η τεχνολογία προχωρά, αλλά ο κόσμος των κανόνων—από ρυθμιστικές αρχές μέχρι δικαστικές αποφάσεις και διεθνείς συμφωνίες—προσπαθεί να «μεταφράσει» κάτι που αλλάζει πριν καν το περιγράψει.
“We don’t have a grasp of what AI does to people’s psychology, what it does to them sociologically…”
AI researcher Zoe Hitzig explains why she resigned from OpenAI#Newsnight pic.twitter.com/l9RXCpJuXV
— BBC Newsnight (@BBCNewsnight) February 12, 2026
Οι παραιτήσεις που έγιναν… σήμα κινδύνου
Μια από τις πιο ηχηρές ενδείξεις αυτής της έντασης είναι οι παραιτήσεις ερευνητών ασφάλειας και πολιτικής AI, που τα τελευταία χρόνια δεν μένουν πια στο παρασκήνιο. Αντίθετα, συχνά συνοδεύονται από δημόσια κείμενα—επιστολές που μοιάζουν άλλοτε με απολογισμό και άλλοτε με καμπανάκι.
Ο Mrinank Sharma, ερευνητής ασφάλειας AI στην Anthropic, έγινε χαρακτηριστικό παράδειγμα όταν ανακοίνωσε ότι αποχωρεί, υπογραμμίζοντας πόσο δύσκολο είναι «να αφήσουμε πραγματικά τις αξίες μας να καθοδηγούν τις πράξεις μας» σε ένα περιβάλλον όπου η τεχνολογία καλπάζει και η εμπορευματοποίηση πιέζει. Η υπόθεση συζητήθηκε διεθνώς, όχι μόνο ως ένα προσωπικό «αντίο», αλλά ως ένδειξη ότι ακόμη και τα πιο ισχυρά εργαστήρια παλεύουν με το ίδιο δίλημμα: ταχύτητα ή έλεγχος.
Αντίστοιχα, η Zoë Hitzig, πρώην ερευνήτρια της OpenAI, βρέθηκε στο επίκεντρο όταν συνέδεσε την αποχώρησή της με ανησυχίες γύρω από τη διαφήμιση και την πιθανή χειραγώγηση των χρηστών, σε μια στιγμή που δημοσιεύματα ανέφεραν ότι η OpenAI άρχισε να δοκιμάζει διαφημίσεις στο ChatGPT. Εδώ το θέμα δεν είναι «διαφήμιση ή όχι» ως αφηρημένη επιλογή. Είναι η αγωνία ότι η AI—λόγω της οικειότητας και της σχέσης εμπιστοσύνης που χτίζει με τον χρήστη—μπορεί να μετατραπεί από εργαλείο γνώσης σε εργαλείο επιρροής. Και αυτό αγγίζει τον πυρήνα του κοινωνικού συμβολαίου γύρω από την τεχνολογία.
Deepfakes, απάτες και μια νέα βιομηχανία εξαπάτησης
Στην καθημερινότητα, οι πιο ορατές απειλές έχουν ήδη όνομα: deepfakes. Δεν μιλάμε μόνο για ψεύτικα βίντεο «εντυπωσιασμού», αλλά για υλικό ικανό να μπερδέψει, να δυσφημίσει, να εκβιάσει ή να παραπλανήσει μαζικά. Η AI μειώνει το κόστος παραγωγής ψεύτικου περιεχομένου και αυξάνει την πειστικότητά του. Η εποχή του «φαίνεται αληθινό άρα είναι αληθινό» τελειώνει απότομα.
Το πρόβλημα δεν είναι θεωρητικό. Όσο πιο εύκολο γίνεται να πλαστογραφείς πρόσωπα, φωνές και «αποδείξεις», τόσο αυξάνεται η πίεση προς θεσμούς, ΜΜΕ και κοινωνικά δίκτυα να αναγνωρίζουν, να διασταυρώνουν και να αποσύρουν περιεχόμενο πριν προκαλέσει ζημιά. Και αυτό απαιτεί κάτι που σήμερα συχνά λείπει: ένα ενιαίο πλαίσιο κανόνων και τεχνικών προδιαγραφών.
Η AI ως «επιταχυντής» κυβερνοεπιθέσεων
Εκεί που παλιότερα χρειαζόταν ομάδα ειδικών για να γράψει πειστικά phishing μηνύματα, να κάνει κοινωνική μηχανική ή να προσαρμόσει επιθέσεις, σήμερα η AI μπορεί να λειτουργήσει ως επιταχυντής. Η κυβερνοασφάλεια μιλά όλο και περισσότερο για ένα παιχνίδι γάτας-ποντικιού όπου οι επιτιθέμενοι αποκτούν νέα «εργαλεία κλίμακας».
Κι εδώ εμφανίζεται ένα ακόμη ζήτημα: η δυνατότητα της AI να συνδυάζει πληροφορίες, να προσωποποιεί μηνύματα, να μιμείται ύφος, να πείθει. Η απάτη δεν χρειάζεται πια να είναι πρόχειρη. Μπορεί να είναι στοχευμένη, προσαρμοσμένη και τρομακτικά πειστική.
Chatbots, ψυχολογία και η επικίνδυνη «οικειότητα»
Υπάρχει και μια λιγότερο τεχνική, αλλά εξίσου κρίσιμη ανησυχία: η σχέση ανθρώπου–AI. Τα chatbots δεν είναι απλώς εφαρμογές. Είναι συνομιλητές. Και αυτή η «οικειότητα» μπορεί να γίνει δύναμη προς το καλό—όταν βοηθούν στην πρόσβαση σε γνώση ή υποστήριξη—αλλά μπορεί να γίνει και δύναμη προς το κακό, όταν ενθαρρύνουν επιβλαβείς συμπεριφορές ή χειραγωγούν την αντίληψη.
Εδώ οι ειδικοί μιλούν για ένα πεδίο όπου οι κανόνες είναι ακόμα ρευστοί: πώς αξιολογείται η συμπεριφορά ενός μοντέλου; ποιος έχει την ευθύνη όταν κάτι πάει στραβά; και πώς διασφαλίζεται ότι οι δικλείδες ασφαλείας δεν είναι απλώς «ρυθμίσεις» που αλλάζουν ανάλογα με τα επιχειρηματικά σχέδια;
AGI: ο φόβος που μοιάζει μακρινός, αλλά καθορίζει το σήμερα
Πίσω από όλες τις πρακτικές ανησυχίες, υπάρχει ο «μεγάλος» φόβος που δίνει δραματικό τόνο στη δημόσια συζήτηση: η πιθανότητα μιας γενικής τεχνητής νοημοσύνης (AGI), ενός συστήματος με δυνατότητα γενικευμένης κατανόησης και λήψης αποφάσεων σε εύρος αντίστοιχο ή και ανώτερο του ανθρώπου.
Για κάποιους, αυτό είναι μακρινό. Για άλλους, είναι κοντινότερο απ’ όσο φαίνεται. Και ακριβώς επειδή δεν υπάρχει συμφωνία για το χρονοδιάγραμμα, η διαφωνία μετατρέπεται σε πολιτική διαμάχη: αν δεν ξέρουμε πότε έρχεται κάτι που θα αλλάξει τα πάντα, πότε είναι η σωστή στιγμή να βάλουμε όρια;
Εδώ κολλάει και ο πυρήνας της κριτικής των παραιτήσεων: ότι η βιομηχανία τρέχει να φτιάξει ισχυρότερα συστήματα, ενώ η κοινωνία δεν έχει συμφωνήσει τι σημαίνει «ασφαλές», τι σημαίνει «υπεύθυνο», τι σημαίνει «επιτρεπτό».
🚨Now this is really fucking concerning 🚨
🚨 Anthropic’s AI safety lead just resigned.
And his reason is unsettling.
Mrinank Sharma, who led the company’s Safeguards Research Team, stepped down this week.
In a public letter, he said “the world is in peril” because of a mix… pic.twitter.com/I2PuIp5heN
— EVM1885 (@evm1885) February 12, 2026
Η σύγκριση με τη βιοτεχνολογία και το δίλημμα της ισχύος
Η Liv Boeree, σύμβουλος στρατηγικής στο Center for AI Safety, έχει παρομοιάσει την AI με τη βιοτεχνολογία: μια δύναμη ικανή να φέρει τεράστια πρόοδο, αλλά και να χρησιμοποιηθεί με επικίνδυνους τρόπους, ακριβώς επειδή η ισχύς της είναι διπλής όψης. Αυτός ο παραλληλισμός δεν είναι ρητορικός. Είναι προειδοποίηση για κάτι βαθύτερο: ότι η ικανότητα μιας τεχνολογίας δεν λέει τίποτα για το πώς θα χρησιμοποιηθεί, αν δεν υπάρχουν κανόνες, κίνητρα και έλεγχοι.
Κι εδώ φτάνουμε στην καρδιά της συζήτησης: δεν αρκεί να «πιστεύουμε» πως οι εταιρείες θα είναι υπεύθυνες. Χρειάζεται ένα σύστημα που να κάνει την υπευθυνότητα αναπόφευκτη.
Τι σημαίνει «ρύθμιση» στην πράξη, όταν η AI αλλάζει κάθε μήνα
Η ρύθμιση της AI δεν είναι απλό νομοσχέδιο. Είναι ένα πλέγμα που περιλαμβάνει τεχνικά πρότυπα, υποχρεώσεις διαφάνειας, ανεξάρτητους ελέγχους, αξιολόγηση κινδύνου, κανόνες για δεδομένα και σαφή όρια για συγκεκριμένες χρήσεις υψηλού ρίσκου. Η δυσκολία είναι ότι όλα αυτά πρέπει να λειτουργούν σε έναν κόσμο που αλλάζει συνεχώς—και η AI αλλάζει συχνά μέσα σε εβδομάδες, όχι χρόνια.
Γι’ αυτό και η συζήτηση των ειδικών δεν μοιάζει πλέον με θεωρητικό debate. Μοιάζει με αγωνία για το αν η κοινωνία προλαβαίνει να χτίσει θεσμούς πριν η τεχνολογία γίνει τόσο κεντρική, που ο έλεγχος θα είναι εκ των υστέρων.
Καταστροφολογία ή προφητεία;
Η πιο τίμια απάντηση ίσως είναι ότι η προειδοποίηση δεν είναι ούτε καθαρή καταστροφολογία ούτε βεβαιότητα προφητείας. Είναι ένα σήμα ότι το ρίσκο αυξάνεται όσο η ισχύς μεγαλώνει και οι κανόνες μένουν πίσω.
Η AI μπορεί να γίνει η μεγαλύτερη ενίσχυση παραγωγικότητας, γνώσης και καινοτομίας που γνώρισε ο κόσμος. Μπορεί όμως και να γίνει ένα σύστημα μαζικής παραπληροφόρησης, επιρροής, απάτης και αποσταθεροποίησης—αν οι δικλείδες ασφαλείας παραμείνουν προαιρετικές.
Κι αν οι παραιτήσεις των ερευνητών σημαίνουν κάτι, αυτό είναι ότι ένα μέρος των ανθρώπων που βρίσκονται πιο κοντά στο «τι έρχεται» δεν αισθάνεται βέβαιο πως η ανθρωπότητα έχει συμφωνήσει στα βασικά. Η τεχνολογία προχωρά. Το ερώτημα είναι αν προχωρά μαζί της και η σοφία μας.
Πηγή: Pagenews.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας