Full width home advertisement

Travel the world

Climb the mountains

Post Page Advertisement [Top]


 

 AI Chatbots: Ψηφιακός «γιατρός» ή μια επικίνδυνη παγίδα για την υγεία μας;...

 

  Η περίπτωση της Abi από το Μάντσεστερ αναδεικνύει μια νέα πραγματικότητα: όλο και περισσότεροι άνθρωποι στρέφονται σε εργαλεία όπως το ChatGPT, το Gemini και το Grok για ιατρικές συμβουλές. Η ευκολία είναι ακαταμάχητη, ειδικά όταν τα ραντεβού με γιατρούς καθυστερούν. Ωστόσο, η διαχωριστική γραμμή ανάμεσα στη σωτήρια καθοδήγηση και το μοιραίο λάθος παραμένει εξαιρετικά λεπτή.

 

Η γοητεία της «προσωπικής» διάγνωσης

Για ανθρώπους με άγχος υγείας, ένα chatbot προσφέρει κάτι που μια απλή αναζήτηση στη Google αδυνατεί: διάλογο. Αντί για μια λίστα με τρομακτικές ασθένειες, η τεχνητή νοημοσύνη (AI) προσφέρει μια εξατομικευμένη συζήτηση που μοιάζει με διαβούλευση.

  • Η επιτυχία: Όταν η Abi υποψιάστηκε ουρολοίμωξη, το AI τη στήριξε σωστά, καθοδηγώντας την στον φαρμακοποιό για αντιβίωση.

  • Η αποτυχία: Μετά από μια πτώση, το ChatGPT διέγνωσε «διάτρηση οργάνου», στέλνοντας την Abi στα επείγοντα (A&E) άδικα, προκαλώντας περιττή αγωνία και ταλαιπωρία.

 

Το παράδοξο της ακρίβειας: 95% vs 35%

Έρευνα από το Πανεπιστήμιο της Οξφόρδης αποκαλύπτει μια εντυπωσιακή αντίφαση:

  1. Σε θεωρητικό επίπεδο (95% ακρίβεια): Όταν οι γιατροί δίνουν στο AI πλήρη και σαφή δεδομένα, οι απαντήσεις είναι σχεδόν τέλειες.

  2. Σε πραγματικές συνθήκες (35% ακρίβεια): Όταν οι ασθενείς συνομιλούν με το chatbot, η ακρίβεια κατακρημνίζεται.

«Οι άνθρωποι μοιράζονται πληροφορίες σταδιακά, παραλείπουν λεπτομέρειες ή αποσπώνται», εξηγεί ο καθηγητής Adam Mahdi. Αυτή η ανθρώπινη ασάφεια οδηγεί το AI σε λανθασμένες διαγνώσεις στο 65% των περιπτώσεων.

 


 

Ο κίνδυνος της «υπερβολικής αυτοπεποίθησης»

Ο Sir Chris Whitty, κορυφαίος ιατρικός σύμβουλος της Αγγλίας, προειδοποιεί ότι οι απαντήσεις της AI είναι συχνά «τόσο σίγουρες όσο και λανθασμένες». Το πρόβλημα εντοπίζεται στη φύση του μέσου:

  • Google Search: Ο χρήστης βλέπει την πηγή (π.χ. NHS) και κρίνει την αξιοπιστία της.

  • AI Chatbot: Δημιουργεί την ψευδαίσθηση μιας προσωπικής, υποστηρικτικής σχέσης, κάνοντας τον χρήστη να εμπιστεύεται τυφλά τις συμβουλές, ακόμα και για απειλητικές για τη ζωή καταστάσεις, όπως ένα εγκεφαλικό.

 


 

  Η τεχνητή νοημοσύνη μπορεί να είναι ένα χρήσιμο εργαλείο για δευτερεύουσας σημασίας πληροφορίες, αλλά δεν είναι γιατρός. Η ικανότητά της να «παπαγαλίζει» ιατρικές γνώσεις δεν αντικαθιστά την κλινική κρίση.

  Όπως σημειώνουν οι ειδικοί, η παραδοσιακή αναζήτηση σε έγκυρες ιατρικές ιστοσελίδες παραμένει συχνά ασφαλέστερη, καθώς διατηρεί την κριτική απόσταση μεταξύ ασθενούς και πληροφορίας.

 

 

 

 

 

 






pixiz-19-09-2018-03-25-22

 

 

 

 

 

 

 Μείνετε μπροστά στις εξελίξεις — κάντε Like στο Facebook

 

click-go-back-button

 

 

 

 

 


  Από το newsroom 

  Γράφει o Θέογνις Αιγίσιος

     -Posted by Anexartitos.Ta.Neα

 

road+news


Αν θέλετε να μαθαίνετε παράλληλα όσα σημαντικά διαδραματίζονται στα ελληνικά και ξένα media κάντε like στην σελίδα στο Facebook πατώντας εδώ.click here  

 

 
 Δημοσίευση σχολίου  

 

.Τα σχόλια υπάρχουν για να συνεισφέρουν οι αναγνώστες στο διάλογο. 

 
. Ο καθένας έχει δικαίωμα να εκφράζει ελεύθερα τις απόψεις του.


. Αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές. 

 
. Συκοφαντικά ή υβριστικά σχόλια και greeklish αφαιρούνται όπου εντοπίζονται.


. Η ευθύνη των σχολίων (αστική και ποινική) βαρύνει τους σχολιαστές και μόνον αυτούς.


. Η ταυτότητα των σχολιαστών είναι γνωστή μόνο στην Google.


. Όποιος θίγεται μπορεί να επικοινωνεί στο email μας.


. Περισσότερα στους όρους χρήσης.

 

        . Ευχαριστούμε για την κατανόησή σας.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Bottom Ad [Post Page]