Τα AI Overviews της Google Θέτουν σε Κίνδυνο Χρήστες με Ανακριβείς Ιατρικές Συμβουλές
Πηγή Φωτογραφίας: Reuters
Μια έρευνα του Guardian (2 Ιανουαρίου 2026) αποκαλύπτει ότι τα AI Overviews της Google – οι συνοπτικές απαντήσεις με γενετική AI που εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης – παρέχουν ανακριβείς και παραπλανητικές πληροφορίες υγείας, θέτοντας ανθρώπους σε κίνδυνο. Παρά τις διαβεβαιώσεις της Google ότι η λειτουργία είναι «χρήσιμη» και «αξιόπιστη», ειδικοί χαρακτηρίζουν ορισμένα παραδείγματα «πραγματικά επικίνδυνα».
Τα Κύρια Παραδείγματα Λανθασμένων Συμβουλών
- Καρκίνος Παγκρέατος: Η AI σύστησε να αποφεύγονται τροφές με υψηλά λιπαρά – ακριβώς το αντίθετο από ό,τι συνιστούν οι ειδικοί. Η Anna Jewell (Pancreatic Cancer UK) προειδοποιεί ότι αυτό μπορεί να μειώσει θερμίδες, να εμποδίσει αύξηση βάρους και να αποκλείσει θεραπείες όπως χημειοθεραπεία ή χειρουργείο, αυξάνοντας τον κίνδυνο θανάτου.
- Εξετάσεις Ηπατικής Λειτουργίας: Ψευδείς πληροφορίες που μπορεί να κάνουν ασθενείς με σοβαρή ηπατική νόσο να πιστεύουν ότι είναι υγιείς.
- Καρκίνος Γυναικείων Οργάνων: Λανθασμένη αναφορά ότι το Pap test ανιχνεύει καρκίνο κόλπου (ενώ ελέγχει τράχηλο). Η Athena Lamnisos (Eve Appeal) τονίζει ότι αυτό μπορεί να οδηγήσει σε αγνόηση συμπτωμάτων. Επιπλέον, οι απαντήσεις αλλάζουν σε ίδιες αναζητήσεις, ανάλογα με πηγές.
- Ψυχική Υγεία: Παραπλανητικές συμβουλές για ψύχωση και διατροφικές διαταραχές – η Mind charity τις χαρακτήρισε «πολύ επικίνδυνες».
Οι Ανησυχίες Ειδικών και Φορέων
- Sophie Randall (Patient Information Forum): «Τα AI Overviews τοποθετούν ανακριβείς πληροφορίες στην κορυφή αναζητήσεων, θέτοντας σε κίνδυνο την υγεία».
- Stephanie Parker (Marie Curie): «Οι άνθρωποι αναζητούν πληροφορίες σε στιγμές κρίσης – ανακριβείς απαντήσεις μπορεί να βλάψουν σοβαρά».
- Sophie Randall (Patient Information Forum): «Τα AI Overviews τοποθετούν ανακριβείς πληροφορίες στην κορυφή αναζητήσεων, θέτοντας σε κίνδυνο την υγεία».
- Stephanie Parker (Marie Curie): «Οι άνθρωποι αναζητούν πληροφορίες σε στιγμές κρίσης – ανακριβείς απαντήσεις μπορεί να βλάψουν σοβαρά».
Η έρευνα βασίστηκε σε ανησυχίες από φιλανθρωπικές οργανώσεις και επαγγελματίες υγείας.
Η Απάντηση της Google
Εκπρόσωπος δήλωσε: «Πολλά παραδείγματα ήταν ατελή screenshots – από όσα αξιολογήσαμε, παραπέμπουν σε αξιόπιστες πηγές και συνιστούν συμβουλή από ειδικούς. Επενδύουμε σημαντικά στην ποιότητα, ιδιαίτερα σε θέματα υγείας – η συντριπτική πλειονότητα είναι ακριβής».
Η Google ισχυρίζεται ότι η ακρίβεια είναι παρόμοια με featured snippets (δεκαετίας) και ότι βελτιώνει συνεχώς το σύστημα.
Ευρύτερο Πλαίσιο και Κίνδυνοι AI
Η υπόθεση εντείνει ανησυχίες για hallucinations σε AI: Μελέτες 2025 δείχνουν ανακριβείς οικονομικές συμβουλές από chatbots. Οι AI Overviews, χωρίς πάντα πηγές, μπορεί να ξεγελούν χρήστες που τα θεωρούν αξιόπιστα.
Προειδοποίηση: Μην βασίζεστε αποκλειστικά σε AI για ιατρικές συμβουλές – συμβουλευτείτε πάντα ειδικό.
Πηγή: Pagenews.gr
Διαβάστε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο
Το σχόλιο σας