Είναι αξιόπιστα τα chatbots τεχνητής νοημοσύνης;

Πηγή Φωτογραφίας: Search Engine Journal, Chatbots And AI Search Engines Converge
«Γεια σου, @Grok, είναι σωστό αυτό;». Από τότε που η εταιρεία Τεχνητής Νοημοσύνης xAI του Ίλον Μασκ λάνσαρε το chatbot Grok τον Νοέμβριο του 2023 και το διέθεσε στους μη premium χρήστες τον Δεκέμβριο του 2024, χιλιάδες χρήστες του X (πρώην Twitter) θέτουν ακριβώς αυτό το ερώτημα. Θέλουν να επαληθεύουν γρήγορα πληροφορίες, χρησιμοποιώντας το σύστημα που βασίζεται στην τεχνητή νοημοσύνη (AI).
Έρευνα της βρετανικής τεχνολογικής πύλης TechRadar διαπίστωσε ότι το 27% των Αμερικανών χρησιμοποιεί εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT της OpenAI, το MetaAI της Meta, το Gemini της Google, το Copilot της Microsoft ή εφαρμογές όπως το Perplexity, αντί μηχανών αναζήτησης όπως η Google ή η Yahoo.
Τα ερωτήματα που προκύπτουν είναι πολλά: Πόσο ακριβείς και αξιόπιστες είναι όμως οι απαντήσεις της AI; Συμβαίνουν τακτικά σφάλματα; Πόσο σίγουροι μπορούν να είναι οι χρήστες ότι θα λάβουν αξιόπιστες πληροφορίες όταν θέλουν να επαληθεύσουν κάτι με τη βοήθεια της AI;
Κίνδυνος παραπλάνησης
Δύο μελέτες που διεξήχθησαν φέτος από το BBC και το Κέντρο Ψηφιακής Δημοσιογραφίας Tow του Πανεπιστημίου Columbia στη Νέα Υόρκη εντόπισαν σημαντικές ελλείψεις στα ΑΙ chatbots. Τον Φεβρουάριο μελέτη του BBC διαπίστωσε ότι «οι απαντήσεις βοηθών τεχνητής νοημοσύνης περιείχαν σημαντικές ανακρίβειες και παραποιημένο περιεχόμενο».
Όταν ζητήθηκε από τα ChatGPT, Copilot, Gemini και Perplexity να απαντήσουν σε ερωτήσεις σχετικά με την επικαιρότητα, χρησιμοποιώντας άρθρα του BBC ως πηγές, διαπιστώθηκε ότι το 51% των απαντήσεων των chatbots περιείχε «σημαντικά προβλήματα διαφόρων ειδών».
Στο 19% των απαντήσεων διαπιστώθηκε ότι είχαν προσθέσει τα δικά τους πραγματολογικά λάθη, ενώ το 13% των παραθεμάτων είτε είχε τροποποιηθεί είτε δεν εμφανιζόταν στα άρθρα.
«Οι βοηθοί τεχνητής νοημοσύνης δεν μπορούν προς το παρόν να θεωρηθούν αξιόπιστοι για την ακριβή μετάδοση ειδήσεων και υπάρχει κίνδυνος να παραπλανήσουν το κοινό», καταλήγει ο Πιτ Άρτσερ, Διευθυντής Προγράμματος του BBC για θέματα Γενετικής Τεχνητής Νοημοσύνης.
Λανθασμένες απαντήσεις
Μελέτη του Κέντρου Ψηφιακής Δημοσιογραφίας Tow διαπίστωσε επίσης ότι οκτώ εργαλεία απέτυχαν να εντοπίσουν σωστά την προέλευση αποσπασμάτων άρθρων στο 60% των περιπτώσεων. Προβληματισμούς προκάλεσε η «ανησυχητική σιγουριά» με την οποία τα εργαλεία ΑΙ έδωσαν λανθασμένες απαντήσεις.
Συνολικά, η μελέτη διαπίστωσε ότι τα chatbots «κατά κανόνα δεν είναι ικανά να αρνηθούν να απαντήσουν σε ερωτήσεις στις οποίες δεν μπορούν να απαντήσουν με ακρίβεια».
Από πού αντλεί όμως τις πληροφορίες της η τεχνητή νοημοσύνη; Τροφοδοτείται από διάφορες πηγές, όπως εκτενείς βάσεις δεδομένων και αναζητήσεις στο διαδίκτυο. Ανάλογα με τον τρόπο που εκπαιδεύονται και προγραμματίζονται τα ΑΙ chatbots, η ποιότητα και η ακρίβεια των απαντήσων ποικίλλει.
«Ένα πρόβλημα που προέκυψε πρόσφατα είναι ότι τα LLM (σ.σ. Large Language Models = Μεγάλα Γλωσσικά Μοντέλα) κατακλύζονται από τη ρωσική παραπληροφόρηση και προπαγάνδα. Επομένως, υπάρχει σαφώς πρόβλημα με το “input” των LLM», δήλωσε στην DW ο Τομάσο Κανέτα, αναπληρωτής διευθυντής του ιταλικού πρότζεκτ επαλήθευσης γεγονότων Pagella Politica και συντονιστής fact-checking (επαλήθευση γεγονότων) στο Ευρωπαϊκό Παρατηρητήριο Ψηφιακών Μέσων (EDMO).
«Εάν οι πηγές δεν είναι αξιόπιστες και υψηλής ποιότητας, τότε αυτό αντικατοπτρίζεται και στις απαντήσεις». Ο Κανέτα λέει ότι ο και ίδιος συναντά τακτικά απαντήσεις που είναι «ελλιπείς, ανακριβείς, παραπλανητικές ήψευδείς».
Η παραπληροφόρηση μπορεί να έχει σοβαρές συνέπειες. Για παράδειγμα, τον Αύγουστο του 2024, μετά την αποχώρηση του Προέδρου των ΗΠΑ Τζο Μπάιντεν από την προεκλογική εκστρατεία, το Grok διέδωσε την ψευδή είδηση ότι η Αντιπρόεδρος Κάμαλα Χάρις δεν θα επιτρεπόταν πλέον να εμφανίζεται στο ψηφοδέλτιο σε αρκετές πολιτείες.
Chatbots: «Να μην τα εμπιστευόμαστε πλήρως»
Τα chatbots μπορεί να φαίνονται «παντογνώστες», ωστόσο δεν είναι. Κάνουν λάθη, παρερμηνεύουν γεγονότα, μπορούν να χειραγωγηθούν.
Ο Φήλιξ Σάιμον, μεταδιδακτορικός ερευνητής Τεχνητής Νοημοσύνης και Ψηφιακών Ειδήσεων που συνεργάζεται με το Ινστιτούτο Διαδικτύου της Οξφόρδης (OII) συμπεραίνει: «Τα συστήματα τεχνητής νοημοσύνης όπως το Grok, το Meta AI ή το ChatGPT δεν θα πρέπει να θεωρούνται εργαλεία επαλήθευσης. Αν και μπορούν να χρησιμοποιηθούν για αυτόν τον σκοπό με κάποια επιτυχία, δεν είναι σαφές πόσο καλά και με πόση συνέπεια εκτελούν αυτό το έργο, ειδικά σε δύσκολες περιπτώσεις».
Για τον Κανέτα, τα ΑΙ chatbots μπορούν να είναι χρήσιμα μόνο για έναν πολύ απλό έλεγχο γεγονότων. Ωστόσο, και αυτός συστήνει να μην τα εμπιστευόμαστε πλήρως. Και οι δύο ειδικοί λένε ότι οι χρήστες θα πρέπει πάντα να επαληθεύουν τις απαντήσεις με άλλες πηγές.
Πηγή: Pagenews.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας