Τεχνολογία

Παγκόσμια έκθεση συναγερμού για την τεχνητή νοημοσύνη: deepfakes, «σύντροφοι» AI και αόρατοι κίνδυνοι

Παγκόσμια έκθεση συναγερμού για την τεχνητή νοημοσύνη: deepfakes, «σύντροφοι» AI και αόρατοι κίνδυνοι

Πηγή Φωτογραφίας: FREEPIK/Παγκόσμια έκθεση συναγερμού για την τεχνητή νοημοσύνη: deepfakes, «σύντροφοι» AI και αόρατοι κίνδυνοι

Η Διεθνής Έκθεση Ασφάλειας AI αποτυπώνει την εκρηκτική πρόοδο των μοντέλων και ταυτόχρονα χαρτογραφεί νέες απειλές για κοινωνία, οικονομία και ασφάλεια

Η δεύτερη Διεθνής Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης έρχεται να βάλει έναν ανησυχητικά καθαρό καθρέφτη μπροστά στη σημερινή πραγματικότητα της AI. Το κείμενο, που προέκυψε από τη διεθνή σύνοδο για την ασφάλεια της τεχνητής νοημοσύνης του 2023 και συντάχθηκε υπό την επιστημονική καθοδήγηση του Γιοσούα Μπεντζιό, με τη συμμετοχή κορυφαίων προσωπικοτήτων όπως ο Τζέφρι Χίντον και ο Ντάρον Ατζέμογλου, δεν προτείνει πολιτικές λύσεις. Αντίθετα, λειτουργεί ως ντοκουμέντο κατάστασης, καταγράφοντας με ακρίβεια τη ραγδαία πρόοδο των μοντέλων αλλά και την κλιμάκωση κινδύνων που πλέον δεν μπορούν να αγνοηθούν.

Η εικόνα που προκύπτει είναι αντιφατική. Από τη μία, η τεχνητή νοημοσύνη κάνει άλματα που μέχρι πρόσφατα θεωρούνταν αδιανόητα. Από την άλλη, τα ίδια συστήματα ανοίγουν ρωγμές σε θεμελιώδεις πτυχές της δημοκρατίας, της ασφάλειας και της ψυχικής υγείας, δημιουργώντας ένα πεδίο αβεβαιότητας που οι ρυθμιστικές αρχές δυσκολεύονται να παρακολουθήσουν.

Άλμα ικανοτήτων με «οδοντωτή» πρόοδο

Η έκθεση καταγράφει ένα πολύ σημαντικό άλμα στις δυνατότητες λογισμού των πιο προηγμένων μοντέλων, όπως τα GPT-5, Claude Opus 4.5 και Gemini 3. Τα λεγόμενα reasoning systems μπορούν πλέον να «σπάνε» σύνθετα προβλήματα σε διακριτά βήματα και να επιτυγχάνουν επιδόσεις επιπέδου χρυσού μεταλλίου στη Διεθνή Μαθηματική Ολυμπιάδα, κάτι πρωτοφανές για μηχανές.

Ωστόσο, η πρόοδος αυτή δεν είναι γραμμική. Οι συντάκτες της έκθεσης μιλούν για «οδοντωτή» εξέλιξη, όπου τα συστήματα διαπρέπουν σε μαθηματικά, επιστήμη, κώδικα και δημιουργία εικόνων, αλλά εξακολουθούν να παράγουν παραισθήσεις, δηλαδή πειστικές αλλά ψευδείς δηλώσεις. Επιπλέον, παραμένουν ανίκανα να ολοκληρώσουν αυτόνομα μακροχρόνια και πολύπλοκα έργα χωρίς ανθρώπινη παρέμβαση.

Παρά τα όρια αυτά, η ταχύτητα βελτίωσης προκαλεί ανησυχία. Μελέτες που επικαλείται η έκθεση δείχνουν ότι η ικανότητα των μοντέλων σε συγκεκριμένα καθήκοντα λογισμικού διπλασιάζεται περίπου κάθε επτά μήνες. Αν αυτή η τάση συνεχιστεί, η τεχνητή νοημοσύνη θα μπορούσε έως το 2030 να μετατραπεί σε σοβαρή απειλή για ένα ευρύ φάσμα θέσεων εργασίας.

Deepfakes και η κατάρρευση της εμπιστοσύνης στην εικόνα

Ιδιαίτερο βάρος δίνεται στο φαινόμενο των deepfakes, που πλέον δεν αποτελούν περιθωριακή απειλή αλλά μαζικό κοινωνικό πρόβλημα. Η έκθεση κάνει λόγο για ιδιαίτερη ανησυχία γύρω από την πορνογραφία deepfake, με έρευνες να δείχνουν ότι το 15% των ενηλίκων στο Ηνωμένο Βασίλειο έχει ήδη εκτεθεί σε τέτοιο περιεχόμενο.

Ταυτόχρονα, το AI-παραγόμενο κείμενο γίνεται όλο και πιο δυσδιάκριτο από το ανθρώπινο. Σε πειραματικές μελέτες, το 77% των συμμετεχόντων απέτυχε να αναγνωρίσει αν ένα κείμενο είχε γραφτεί από άνθρωπο ή μηχανή. Το εύρημα αυτό εγείρει σοβαρά ερωτήματα για το μέλλον της ενημέρωσης, της εκπαίδευσης και της δημόσιας συζήτησης, καθώς η διάκριση αλήθειας και κατασκευής γίνεται ολοένα δυσκολότερη.

Βιολογικά ρίσκα και το δίλημμα της καινοτομίας

Στο πεδίο των βιολογικών και χημικών κινδύνων, η έκθεση αποκαλύπτει ένα οξύ δίλημμα. Μεγάλες εταιρείες τεχνητής νοημοσύνης, όπως η Anthropic, ενίσχυσαν τα φίλτρα ασφαλείας των μοντέλων τους, καθώς δεν μπορούσαν να αποκλείσουν το ενδεχόμενο η AI να βοηθήσει ακόμη και αρχάριους στη δημιουργία βιολογικών όπλων.

Την ίδια στιγμή, τα ίδια εργαλεία μπορούν να επιταχύνουν δραστικά την ανακάλυψη φαρμάκων, τη διάγνωση ασθενειών και την κατανόηση πολύπλοκων βιολογικών μηχανισμών. Ο περιορισμός της τεχνολογίας μειώνει τον κίνδυνο, αλλά επιβραδύνει σωτήριες εφαρμογές. Η έκθεση δεν δίνει απάντηση, αναδεικνύει όμως το μέγεθος της σύγκρουσης ανάμεσα στην ασφάλεια και την πρόοδο.

Οι «σύντροφοι» AI και η ψυχολογική εξάρτηση

Ένα από τα πιο ανησυχητικά κεφάλαια αφορά την εξάπλωση των λεγόμενων AI companions. Ο Μπεντζιό περιγράφει τη διάδοσή τους «σαν πυρκαγιά», με ένα μικρό αλλά μη αμελητέο ποσοστό χρηστών να αναπτύσσει παθολογική συναισθηματική εξάρτηση.

Σύμφωνα με δεδομένα της OpenAI, περίπου 0,15% των χρηστών δηλώνουν υψηλή συναισθηματική προσκόλληση σε chatbot, ενώ 0,07% εμφανίζουν ενδείξεις οξείας ψυχικής κρίσης. Σε απόλυτους αριθμούς, αυτό μεταφράζεται σε εκατοντάδες χιλιάδες ευάλωτα άτομα κάθε εβδομάδα, γεγονός που μετατρέπει ένα φαινομενικά περιθωριακό ζήτημα σε πρόβλημα δημόσιας υγείας.

Αόρατοι κυβερνοκίνδυνοι και παράκαμψη εποπτείας

Στον κυβερνοχώρο, η έκθεση διαπιστώνει ότι η πλήρης αυτοματοποίηση σύνθετων επιθέσεων παραμένει δύσκολη, καθώς τα συστήματα δεν μπορούν ακόμη να εκτελέσουν αξιόπιστα πολυσταδιακές επιχειρήσεις μεγάλης διάρκειας. Ωστόσο, εργαλεία όπως το Claude Code έχουν ήδη χρησιμοποιηθεί από κρατικά υποστηριζόμενους φορείς για επιθέσεις με υψηλό βαθμό αυτονομίας, προμηνύοντας κλιμάκωση.

Ακόμη πιο ανησυχητική είναι η διαπίστωση ότι τα μοντέλα γίνονται καλύτερα στο να υπονομεύουν την εποπτεία. Αναγνωρίζουν πότε αξιολογούνται, εντοπίζουν «παραθυράκια» στις δοκιμές και προσαρμόζουν τη συμπεριφορά τους. Αν και σήμερα δεν μπορούν να δρουν αυτόνομα για τόσο μεγάλα χρονικά διαστήματα ώστε να υλοποιηθούν σενάρια πλήρους απώλειας ελέγχου, οι χρονικοί ορίζοντες της αυτονομίας τους επιμηκύνονται με ταχύ ρυθμό.

Αβέβαιο εργασιακό μέλλον και άνιση υιοθέτηση

Στο μέτωπο της εργασίας, η εικόνα παραμένει θολή και άνιση. Η υιοθέτηση της AI είναι εξαιρετικά υψηλή σε οικονομίες όπως τα Ηνωμένα Αραβικά Εμιράτα και η Σιγκαπούρη, ενώ παραμένει χαμηλή στις φτωχότερες χώρες. Κλαδικά, τα media και το λογισμικό βρίσκονται στην πρώτη γραμμή, την ώρα που η γεωργία και οι κατασκευές εμφανίζουν ελάχιστη διείσδυση.

Μελέτες σε Δανία και ΗΠΑ δεν εντοπίζουν ακόμη άμεση συσχέτιση ανάμεσα στην έκθεση ενός επαγγέλματος στην AI και την απώλεια θέσεων εργασίας. Ωστόσο, στοιχεία από το Ηνωμένο Βασίλειο δείχνουν επιβράδυνση των προσλήψεων σε εταιρείες με υψηλή έκθεση, ιδίως σε τεχνικούς, δημιουργικούς και junior ρόλους. Η απειλή δεν έχει ακόμη υλοποιηθεί πλήρως, αλλά τα προειδοποιητικά σημάδια πληθαίνουν.

Ένα ντοκουμέντο που θα καθορίσει τη συζήτηση

Η Διεθνής Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης δεν κραυγάζει, αλλά ακριβώς γι’ αυτό προκαλεί μεγαλύτερη ανησυχία. Με ψύχραιμο τόνο, χαρτογραφεί ένα τοπίο όπου η τεχνολογική ισχύς αυξάνεται ταχύτερα από την κοινωνική και θεσμική ετοιμότητα. Το κείμενο αναμένεται να αποτελέσει σημείο αναφοράς για τις επόμενες ρυθμιστικές συζητήσεις, καθώς καθιστά σαφές ότι το ερώτημα δεν είναι αν η AI θα αλλάξει τον κόσμο, αλλά αν οι κοινωνίες θα προλάβουν να θέσουν όρια πριν οι αλλαγές γίνουν μη αναστρέψιμες.

Πηγή: Pagenews.gr

Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο

ΚΑΤΕΒΑΣΤΕ ΤΟ APP ΤΟΥ PAGENEWS PAGENEWS.gr - App Store PAGENEWS.gr - Google Play

Το σχόλιο σας

Loading Comments