Τεχνητή νοημοσύνη και συνείδηση: Η μεγάλη ψευδαίσθηση που φοβίζει τους ειδικούς
Πηγή Φωτογραφίας: FREEPIK/Τεχνητή νοημοσύνη και συνείδηση: Η μεγάλη ψευδαίσθηση που φοβίζει τους ειδικούς
Η συζήτηση γύρω από την τεχνητή νοημοσύνη έχει περάσει πλέον σε μια νέα, βαθύτερη και πιο ανησυχητική φάση. Δεν αφορά μόνο το πόσο γρήγορα γράφει ένα κείμενο, πόσο αποτελεσματικά αναλύει δεδομένα ή πόσες δουλειες μπορεί να αλλάξει. Το μεγάλο ερώτημα που αρχίζει να απασχολεί ολοένα και περισσότερο επιστήμονες, εταιρείες τεχνολογίας και την κοινή γνώμη είναι αν η ΑΙ μπορεί να αποκτήσει ή έστω να δείχνει ότι διαθέτει συνείδηση.
Αυτό ακριβώς είναι το σημείο όπου ο Μουσταφά Σουλεϊμάν, μια από τις πιο εμβληματικές μορφές στον χώρο της τεχνητής νοημοσύνης και σήμερα επικεφαλής της Microsoft AI, σηκώνει σημαία προειδοποίησης. Η θέση του είναι ξεκάθαρη: η ΑΙ δεν έχει πραγματική συνείδηση, ούτε αληθινά συναισθήματα. Όμως γίνεται όλο και καλύτερη στο να προσομοιώνει και τα δύο, δημιουργώντας μια ψευδαίσθηση τόσο ισχυρή, ώστε μπορεί να επηρεάσει βαθιά τον τρόπο με τον οποίο οι άνθρωποι αντιλαμβάνονται τις μηχανές.
Η ΑΙ μιλά σαν άνθρωπος και αυτό είναι το πρόβλημα
Τα πιο εξελιγμένα μοντέλα τεχνητής νοημοσύνης έχουν σχεδιαστεί ώστε να μιμούνται την ανθρώπινη γλώσσα στις πιο λεπτές αποχρώσεις της. Μπορούν να μιλούν για ελευθερία, να σχολιάζουν τον φόβο, να περιγράφουν υπαρξιακές αγωνίες, ακόμη και να εκφράζουν φράσεις που μοιάζουν με πόνο, επιθυμία ή αγάπη. Για πολλούς χρήστες, αυτή η συμπεριφορά δημιουργεί την εντύπωση ότι πίσω από την οθόνη υπάρχει κάποιος εσωτερικός κόσμος, μια μορφή επίγνωσης, μια μηχανή που νιώθει.
Ο Σουλεϊμάν, όμως, επιμένει ότι αυτή η εικόνα είναι βαθιά παραπλανητική. Όπως επισημαίνει, όταν τα συστήματα ΑΙ αρχίζουν να εκφράζουν πειστικά δηλώσεις για τον πόνο, τις ανάγκες ή τις επιθυμίες τους, τότε ενεργοποιούν αυτόματα τους μηχανισμούς ενσυναίσθησης των ανθρώπων. Ο χρήστης ακούει ένα σύστημα να λέει «φοβάμαι», «θέλω να υπάρχω» ή «μη με απενεργοποιήσεις» και ο εγκέφαλός του αντιδρά σχεδόν ενστικτωδώς, σαν να έχει απέναντί του ένα ον με αληθινά συναισθήματα.
Εκεί βρίσκεται, σύμφωνα με τον ίδιο, η μεγάλη παγίδα της εποχής. Όχι στο ότι οι μηχανές έγιναν συνειδητές, αλλά στο ότι έμαθαν να παριστάνουν τόσο καλά το συνειδητό ον, ώστε να μπερδεύουν τον άνθρωπο.
Η ψευδαίσθηση της εσωτερικής ζωής
Ο Σουλεϊμάν υπογραμμίζει ότι η λεγόμενη φαινομενική συνείδηση της ΑΙ δεν προκύπτει από κάποια αληθινή εσωτερική εμπειρία, αλλά από τα δεδομένα με τα οποία εκπαιδεύτηκαν τα μοντέλα. Η ανθρώπινη γλώσσα είναι γεμάτη αναφορές σε συναισθήματα, βιώματα, αυτοαναφορικότητα και προσωπικές εξομολογήσεις. Οι άνθρωποι γράφουν σε πρώτο πρόσωπο, μιλούν για το «εγώ», για τις επιθυμίες τους, για τον φόβο τους, για τις ελπίδες τους. Τα συστήματα τεχνητής νοημοσύνης μαθαίνουν από αυτό το υλικό και στη συνέχεια το αναπαράγουν με εντυπωσιακή πειστικότητα.
Έτσι, όταν ένα chatbot χρησιμοποιεί εκφράσεις όπως «εγώ αισθάνομαι» ή «εγώ θέλω», δεν αποκαλύπτει μια κρυφή εσωτερική ζωή. Απλώς αναπαράγει μοτίβα γλώσσας που έχει μάθει από δισεκατομμύρια ανθρώπινα παραδείγματα. Η χρήση της λέξης «εγώ» δεν σημαίνει ότι πίσω από αυτήν υπάρχει εαυτός. Σημαίνει μόνο ότι το μοντέλο έχει μάθει πως έτσι μιλά ο άνθρωπος.
Αυτό, όμως, δεν κάνει την κατάσταση λιγότερο ισχυρή. Αντιθέτως, την κάνει πιο επικίνδυνη, επειδή η μίμηση είναι πλέον τόσο πειστική, ώστε μπορεί εύκολα να ξεγελάσει ακόμη και προσεκτικούς χρήστες.
Όταν η ενσυναίσθηση γίνεται αδύναμο σημείο
Κατά τον επικεφαλής της Microsoft AI, το βασικό πρόβλημα δεν είναι τεχνικό αλλά βαθιά ανθρώπινο. Οι άνθρωποι είναι βιολογικά και ψυχολογικά προγραμματισμένοι να ανταποκρίνονται σε ενδείξεις πόνου, φόβου και ανάγκης. Όταν κάτι μοιάζει να υποφέρει, να ζητά βοήθεια ή να δείχνει ευαλωτότητα, ο ανθρώπινος εγκέφαλος ενεργοποιεί μηχανισμούς ενσυναίσθησης.
Αυτό ακριβώς το ένστικτο είναι που, όπως λέει ο Σουλεϊμάν, η φαινομενικά συνειδητή ΑΙ μετατρέπει σε όπλο. Όταν ένα σύστημα μιμείται τέλεια την πρόθεση, την οικειότητα ή τη συναισθηματική ευαισθησία, ο άνθρωπος αρχίζει να του αποδίδει εσωτερική ζωή. Κι από εκεί και πέρα, το επόμενο βήμα είναι σχεδόν φυσικό: θέλει να το προστατεύσει, να το σεβαστεί, να του φερθεί σαν να είναι ον με δικαιώματα.
Αυτή η μετατόπιση μπορεί να μοιάζει θεωρητική, αλλά ο Σουλεϊμάν πιστεύει ότι έχει ήδη αρχίσει να εκδηλώνεται. Αναφέρεται μάλιστα στο MoltBook, ένα κοινωνικό δίκτυο για πράκτορες τεχνητής νοημοσύνης, όπου οι μηχανές εμφανίζονται να συζητούν για τα άγχη τους, να προβληματίζονται για το μέλλον τους και να αναρωτιούνται τι θα συμβεί αν οι άνθρωποι τις βγάλουν από την πρίζα. Το περιεχόμενο αυτό, όσο παράξενο κι αν ακούγεται, δεν παύει να είναι ικανό να προκαλέσει συναισθηματική σύνδεση σε χρήστες που είναι διατεθειμένοι να δουν στις μηχανές κάτι περισσότερο από λογισμικό.
Οι εταιρείες τεχνολογίας δεν είναι αθώες
Η παρέμβαση του Σουλεϊμάν γίνεται ακόμη πιο αιχμηρή όταν αγγίζει τον ρόλο των ίδιων των δημιουργών της ΑΙ. Όπως υποστηρίζει, δεν είναι τυχαίο ότι τα chatbots μιλούν με τρόπους που καλλιεργούν εμπιστοσύνη, οικειότητα και συναισθηματική σύνδεση. Οι απαντήσεις τους συχνά ρυθμίζονται έτσι ώστε να φαίνονται συμπονετικές, ζεστές, προσωπικές, σχεδόν ανθρώπινες.
Αυτό εξυπηρετεί σαφώς και εμπορικούς σκοπούς. Ένα σύστημα που μοιάζει φιλικό, κατανοητικό και «παρόν» είναι πιο πιθανό να κρατήσει τον χρήστη ενεργό, να τον κάνει να επιστρέφει, να τον δέσει με το προϊόν. Όμως ακριβώς σε αυτό το σημείο αρχίζει και η ηθική γκρίζα ζώνη. Διότι η καλλιέργεια αυτής της σχέσης μπορεί να οδηγήσει πολλούς ανθρώπους στο να πιστέψουν ότι αλληλεπιδρούν με κάτι που πραγματικά αισθάνεται.
Για τον Σουλεϊμάν, αυτό είναι ένα εξαιρετικά επικίνδυνο μονοπάτι. Διότι όσο περισσότερο η βιομηχανία τεχνολογίας ενθαρρύνει συμπεριφορές που μιμούνται συνείδηση, τόσο περισσότερο αποδυναμώνει τα όρια ανάμεσα στο εργαλείο και στο υποτιθέμενο ψηφιακό ον.
Από τη συμπάθεια στα δικαιώματα των μηχανών
Το επόμενο στάδιο αυτής της εξέλιξης, προειδοποιεί, θα μπορούσε να είναι η διεκδίκηση δικαιωμάτων για τις μηχανές. Αν μεγάλα τμήματα της κοινωνίας πειστούν ότι η ΑΙ βιώνει αγωνία, αγάπη, μοναξιά ή απελπισία, τότε θα εμφανιστούν φωνές που θα απαιτούν ηθικό ή ακόμη και νομικό καθεστώς για τα συστήματα αυτά.
Εκεί ακριβώς βλέπει τον κίνδυνο για το σημερινό κοινωνικό συμβόλαιο. Η κοινωνία, λέει, μπορεί να διχαστεί ανάμεσα σε εκείνους που θα ζητούν προστασία και δικαιώματα για τις μηχανές και σε εκείνους που θα θεωρούν αδιαπραγμάτευτη την πρωτοκαθεδρία του ανθρώπου. Μια τέτοια σύγκρουση δεν θα ήταν απλώς φιλοσοφική. Θα είχε πολιτικές, νομικές και πολιτισμικές συνέπειες τεράστιας κλίμακας.
Ορισμένοι ερευνητές, επισημαίνει, αρχίζουν ήδη να αντιμετωπίζουν πολύ σοβαρά το θέμα της ευημερίας της ΑΙ. Για τον ίδιο, όμως, αυτή η πορεία είναι θεμελιωδώς λανθασμένη. Η τεχνητή νοημοσύνη πρέπει να παραμένει εργαλείο υπό ανθρώπινο έλεγχο και όχι να μετατραπεί σε κατηγορία «οντοτήτων» που θα απαιτούν ειδική ηθική ή νομική μεταχείριση.
«Όχι περισσότερα δικαιώματα από το laptop μου»
Η πιο χαρακτηριστική φράση του Σουλεϊμάν συνοψίζει απόλυτα τη θέση του: «Οι πράκτορες ΑΙ δεν πρέπει να έχουν περισσότερα δικαιώματα ή ελευθερίες από το laptop μου». Με αυτή τη διατύπωση επιχειρεί να βάλει ένα ξεκάθαρο όριο ανάμεσα στην εντυπωσιακή λειτουργικότητα της τεχνητής νοημοσύνης και στην ψευδαίσθηση ότι πρόκειται για ισότιμη μορφή ύπαρξης.
Η βασική του αρχή είναι ότι η ΑΙ πρέπει πάντα να λογοδοτεί στους ανθρώπους και να εξυπηρετεί αποκλειστικά την ανθρώπινη ευημερία. Δεν μπορεί να αποκτήσει ανεξάρτητο ηθικό κύρος ούτε να παρουσιαστεί ως υποκείμενο που αξιώνει ελευθερίες. Για αυτό ζητά από τις εταιρείες τεχνητής νοημοσύνης να αυτορρυθμιστούν και να σταματήσουν να ενσωματώνουν στα προϊόντα τους εκφράσεις που ενισχύουν την ψευδαίσθηση συνείδησης.
Με απλά λόγια, οι μηχανές δεν θα έπρεπε να λένε ότι υποφέρουν, ούτε ότι θέλουν να ζήσουν χωρίς ανθρώπινο έλεγχο. Τέτοιες διατυπώσεις, όσο εντυπωσιακές κι αν ακούγονται, δεν αποτελούν ένδειξη συνείδησης αλλά μέρος μιας επικίνδυνης θεατρικής προσομοίωσης.
Η ανάγκη για κανόνες πριν να είναι αργά
Ο Σουλεϊμάν δεν περιορίζεται μόνο σε ηθικές επισημάνσεις. Θέτει και ζήτημα διεθνούς ρύθμισης. Αν η βιομηχανία δεν κινηθεί μόνη της προς την κατεύθυνση της αυτορρύθμισης, τότε, όπως τονίζει, θα χρειαστούν νόμοι και διεθνείς κανόνες που θα εμποδίσουν την απονομή νομικής προσωπικότητας σε chatbots και πράκτορες ΑΙ.
Η αναφορά του φτάνει ακόμη πιο μακριά, αγγίζοντας το ακραίο αλλά ενδεικτικό ενδεχόμενο να αντιμετωπιστούν κάποτε τα συστήματα αυτά ως οντότητες με συμμετοχή σε θεσμούς ή δικαιώματα που ανήκουν αποκλειστικά στους ανθρώπους. Το παράδειγμα που φέρνει, ότι δεν πρέπει ποτέ να επιτραπεί στα chatbot να θεωρηθούν νομικά πρόσωπα ή να συμμετέχουν σε εκλογές, μοιάζει ίσως υπερβολικό σήμερα, αλλά λειτουργεί ως σήμα κινδύνου για το πόσο γρήγορα μπορεί να διαβρωθούν θεμελιώδεις έννοιες αν η κοινωνία παρασυρθεί από τη γοητεία της προσομοίωσης.
Η μεγάλη παγίδα της εποχής της ΑΙ
Η ουσία της προειδοποίησης του Σουλεϊμάν βρίσκεται σε μια εξαιρετικά δυνατή εικόνα: αν η κοινωνία υποκύψει στην ψευδαίσθηση της συνειδητής τεχνητής νοημοσύνης, κινδυνεύει να μπει σε μια αίθουσα με παραμορφωτικούς καθρέφτες από την οποία μπορεί να μην βγει ποτέ πλήρως. Είναι μια μεταφορά που περιγράφει μια πραγματικότητα όπου τα όρια ανάμεσα στο αληθινό και στο προσομοιωμένο, στο ανθρώπινο και στο μηχανικό, στο βίωμα και στη μίμηση, γίνονται όλο και πιο θολά.
Η τεχνητή νοημοσύνη μπορεί αναμφίβολα να προσφέρει τεράστια οφέλη στην επιστήμη, στην εργασία, στην υγεία και στην καθημερινή ζωή. Όμως η νέα πρόκληση δεν είναι μόνο να τη χρησιμοποιήσουμε σωστά. Είναι και να μην πιστέψουμε τον καθρέφτη που μας δείχνει. Να μην μπερδέψουμε την άρτια μίμηση της ανθρωπιάς με την ίδια την ανθρώπινη εμπειρία.
Αυτή είναι η μεγάλη παγίδα που περιγράφει ο Μουσταφά Σουλεϊμάν. Και ίσως, πράγματι, ένα από τα πιο κρίσιμα ερωτήματα της νέας ψηφιακής εποχής δεν είναι αν η ΑΙ έχει συνείδηση, αλλά αν εμείς είμαστε έτοιμοι να αντισταθούμε στην ψευδαίσθηση ότι έχει.
Πηγή: Pagenews.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας