Τεχνητή νοημοσύνη και fact checking: Μπορεί η τεχνολογία να «ξεριζώσει» τις ψευδείς ειδήσεις;
- Στην εποχή της παραπληροφόρησης
- Η ανάγκη για τεχνολογία στον έλεγχο γεγονότων
- Πώς Λειτουργεί η τεχνητών νοημοσύνη στον έλεγχο γεγονότων
- Πρακτικές εφαρμογές της τεχνητής νοημοσύνης στο fact checking
- Τεχνολογικές, αλλά και ιδεολογικές διαφορές
- Θα γίνονται όλα από τα ρομπότ;
Στην εποχή της παραπληροφόρησης
Στη σημερινή εποχή, όπου η digital ενημέρωση κερδίζει όλο και περισσότερο χώρο και χρόνο, η παραπληροφόρηση αποτελεί ένα παγκόσμιο πρόβλημα με σημαντικές κοινωνικές, πολιτικές και οικονομικές επιπτώσεις. Η εξάπλωση ψευδών ειδήσεων μέσω διαδικτύου και Social Media έχει καταστήσει τον έλεγχο γεγονότων πιο απαραίτητο από ποτέ. Στο επίκεντρο αυτής της προσπάθειας βρίσκεται η τεχνητή νοημοσύνη, που αναδεικνύεται ως ένα ισχυρό εργαλείο στον αγώνα για την αλήθεια και την αξιοπιστία των πληροφοριών.
Η ανάγκη για τεχνολογία στον έλεγχο γεγονότων
Η συνεχώς αυξανόμενη ροή πληροφοριών έχει κάνει ακόμα πιο δύσκολη τη διάκριση μεταξύ αληθινών και ψευδών δεδομένων. Παραδοσιακά, το fact checking βασιζόταν αποκλειστικά στον ανθρώπινο παράγοντα, ο οποίος ανέλυε τις πληροφορίες και επαλήθευε την εγκυρότητά τους. Ωστόσο, αυτή η διαδικασία είναι χρονοβόρα και αδύνατον να ανταποκριθεί στις απαιτήσεις του σημερινού όγκου. Η A.I έρχεται να καλύψει αυτό το κενό, παρέχοντας αυτοματοποιημένα εργαλεία που μπορούν να ανιχνεύσουν, να αναλύσουν και να επαληθεύσουν πληροφορίες σε πραγματικό χρόνο. Παράλληλα, ωστόσο, η εξάπλωση της τεχνητής νοημοσύνης την μετατρέπει σε εργαλείο παραγωγής πλαστών ειδήσεων, εικόνων, ήχου και βίντεο. Έχει να κάνει λοιπόν με τον τρόπο που επιλέγει κανείς να χρησιμοποιήσει την τεχνητή νοημοσύνη. Κι εδώ επιστρέφει ο ανθρώπινος παράγοντας.
Μια μελέτη του Reuters Institute for the Study of Journalism (2021) τονίζει ότι η Τ.Ν έχει ήδη αρχίσει να διαδραματίζει σημαντικό ρόλο στον έλεγχο γεγονότων. Ωστόσο, η ίδια έρευνα υπογραμμίζει την πρόκληση των «μικρών γλωσσών», δηλαδή γλωσσών με περιορισμένο όγκο δεδομένων εκπαίδευσης για τα συστήματα. Αυτό θέτει ζητήματα ανισότητας στην εφαρμογή της τεχνολογίας σε παγκόσμιο επίπεδο.
Πώς Λειτουργεί η τεχνητών νοημοσύνη στον έλεγχο γεγονότων
Η διαδικασία αυτοματοποιημένου ελέγχου γεγονότων βασίζεται σε τρία βασικά στάδια:
- Ανίχνευση αξιόλογων ισχυρισμών: Οι αλγόριθμοι αναλύουν μεγάλους όγκους δεδομένων και εντοπίζουν δηλώσεις που χρήζουν επαλήθευσης. Αυτή η διαδικασία χρησιμοποιεί τεχνικές επεξεργασίας φυσικής γλώσσας (NLP).
- Ανάκτηση σχετικών αποδεικτικών στοιχείων: Τα συστήματα Τ.Ν συγκεντρώνουν αποδεικτικά στοιχεία από έγκυρες πηγές, όπως επιστημονικά άρθρα, αξιόπιστα μέσα ενημέρωσης ή επίσημα έγγραφα.
- Επαλήθευση των ισχυρισμών: Οι ισχυρισμοί συγκρίνονται με τα αποδεικτικά στοιχεία, και το σύστημα προσδιορίζει την εγκυρότητά τους.
Σχετική έρευνα που δημοσιεύθηκε στο Transactions of the Association for Computational Linguistics, εξηγεί ότι οι διαδικασίες υποστηρίζονται από τεχνολογίες μηχανικής μάθησης, οι οποίες επιτρέπουν τη συνεχή βελτίωση των συστημάτων, αφού εκπαιδεύονται με νέα δεδομένα.
Πρακτικές εφαρμογές της τεχνητής νοημοσύνης στο fact checking
Το Full Fact είναι ένας βρετανικός ανεξάρτητος οργανισμός ελέγχου γεγονότων, ο οποίος αξιοποιεί την τεχνητή νοημοσύνη για να ενισχύσει τις διαδικασίες επαλήθευσης πληροφοριών. Η Τ.Ν χρησιμοποιείται για την ανίχνευση και παρακολούθηση ψευδών ισχυρισμών, επιτρέποντας την ταχύτερη και πιο αποτελεσματική αναγνώριση της παραπληροφόρησης. Επιπλέον, τα εργαλεία A.I βοηθούν στην ανάλυση μεγάλων όγκων δεδομένων, διευκολύνοντας την αναγνώριση επαναλαμβανόμενων ψευδών πληροφοριών και την κατανόηση των τάσεων στη διάδοση παραπληροφόρησης. Η τεχνολογική προσέγγιση επιτρέπει στο Full Fact να ανταποκρίνεται άμεσα σε ψευδείς ισχυρισμούς, διασφαλίζοντας την ακρίβεια και την αξιοπιστία των πληροφοριών που διαδίδονται στο κοινό.
Υπάρχουν ακόμα πλατφόρμες όπως το Factinsect, το οποίο έχει χρηματοδοτηθεί από την Ευρωπαϊκή Ένωση και χρησιμοποιεί αλγόριθμους τεχνητής νοημοσύνης για να συγκρίνει κείμενα με αξιόπιστες πηγές και να τα αξιολογήσει. Το Sourcely παρέχει πρόσβαση σε πάνω από 200 εκατομμύρια ακαδημαϊκά άρθρα και βοηθά στην αναζήτηση σχετικών αποδεικτικών στοιχείων για την υποστήριξη ή την απόρριψη ισχυρισμών.
Tο παράδειγμα των Νορβηγών
Σε άρθρο του Reuters Institute, αναδεικνύεται η περίπτωση του Faktisk Verifiserbar. Πρόκειται για μια νορβηγική συνεργατική πρωτοβουλία, η οποία επικεντρώνεται στην επαλήθευση οπτικού υλικού και ιστοριών από περιοχές συγκρούσεων, χρησιμοποιώντας τεχνικές Ανοιχτών Πηγών Πληροφοριών (OSINT). Η ομάδα αποτελείται από δημοσιογράφους, ερευνητές και ελεγκτές γεγονότων από διάφορα μέσα ενημέρωσης της Νορβηγίας, οι οποίοι συνεργάζονται για να διασφαλίσουν την ακρίβεια των πληροφοριών που διαδίδονται στο κοινό.
Στο πλαίσιο της αποστολής του, το Faktisk Verifiserbar έχει πειραματιστεί με διάφορες πτυχές της τεχνητής νοημοσύνης για να διευκολύνει και να αυτοματοποιήσει την εργασία των ελεγκτών. Ένα από τα εργαλεία που χρησιμοποιούν είναι η πλατφόρμα γεωεντοπισμού φωτογραφιών GeoSpy, η οποία εξάγει μοναδικά χαρακτηριστικά από φωτογραφίες και τα αντιστοιχίζει σε γεωγραφικές περιοχές, χώρες και πόλεις. Επιπλέον, έχουν συνεργαστεί με ερευνητές από το Πανεπιστήμιο του Μπέργκεν για την ανάπτυξη εργαλείων που μπορούν να κάνουν την εργασία τους πιο αποτελεσματική. Ένα από αυτά είναι το Tank Classifier, το οποίο αναγνωρίζει και ταξινομεί άρματα μάχης ή πυροβολικό που εμφανίζονται σε εικόνες. Ένα άλλο εργαλείο είναι ένας ανιχνευτής, για τον έλεγχο της γλώσσας που ομιλείται σε ένα δεδομένο βίντεο ή αρχείο ήχου. Επιπλέον, το Faktisk Verifiserbar έχει χρησιμοποιήσει το ChatGPT για τη βοήθεια στην οπτικοποίηση των OSINT έρευνώς τους.
Εντοπισμός «μύθων» στη Γεωργία
Το MythDetector είναι μια πλατφόρμα ελέγχου γεγονότων που λειτουργεί στη Γεωργία, με στόχο την καταπολέμηση της παραπληροφόρησης και την προώθηση της αλήθειας στον δημόσιο λόγο. Η ομάδα του MythDetector έχει αρχίσει να πειραματίζεται με τη χρήση της τεχνητής νοημοσύνης για την ενίσχυση των διαδικασιών επαλήθευσης πληροφοριών. Σύμφωνα με την αρχισυντάκτρια, Ταμάρ Κιντσουρασβίλι, η A.I βοηθά στην ανίχνευση επιβλαβούς πληροφορίας που διαδίδεται στις ψηφιακές πλατφόρμες μέσω ενός μηχανισμού αντιστοίχισης, μέσω του οποίου επισημαίνεται το περιεχόμενο ως ψευδές και η τεχνητή νοημοσύνη είναι σε θέση να βρει παρόμοιο ψευδές περιεχόμενο στο διαδίκτυο.
Ωστόσο, η εφαρμογή της Τ.Ν στη Γεωργία αντιμετωπίζει προκλήσεις λόγω της περιορισμένης εκπαίδευσης των εργαλείων σε μικρές γλώσσες, όπως τα γεωργιανά. Η Ταμάρ Κιντσουρασβίλι αναφέρει ότι, ενώ η Α.Ι μπορεί να εντοπίσει επιτυχώς προσωπικότητες ή μέσα ενημέρωσης που αναφέρονται σε μια ανάρτηση, δυσκολεύεται να αναγνωρίσει σχετικές θεματικές αναρτήσεις. Επιπλέον, η πρόσβαση σε εργαλεία όπως το CrowdTangle είναι περιορισμένη, καθώς η Meta ανακοίνωσε ότι θα το καταργήσει μέχρι τον Αύγουστο του 2024, αντικαθιστώντας το με ένα νέο Content Library API.
Τεχνολογικές, αλλά και ιδεολογικές διαφορές
Φυσικά, η χρήση της τεχνητής νοημοσύνης, τουλάχιστον στο παρόν στάδιο ανάπτυξής της, πρέπει να γίνεται με προσοχή. Υπάρχουν περιπτώσεις όπου αναπτύσσεται, αλλά δεν χρησιμοποιείται ακόμη στο πλήρες εύρος της. Μια τέτοια είναι αυτή του Ghana Fact. Σύμφωνα με τον δημιουργό του, τα εργαλεία αυτά εκπαιδεύονται και αναπτύσσονται από την πλευρά της Δύσης, με αποτέλεσμα να δημιουργούνται προβλήματα. Ένα παράδειγμα είναι το τεστ που έγινε από το Rest of the World του Chat GPT 3.5, σε γλώσσες όπως η σουαχίλι, η βεγγαλική και η ούρντου. Τα λάθη στην πληροφορία ήταν πολύ σημαντικά. «Βλέποντας τον τρόπο που εφαρμόζεται η τεχνητή νοημοσύνη, νιώθουμε ότι δεν θα αποδώσει επαρκώς ούτε στην παραγωγή περιεχομένου ούτε στη διαδικασία επαλήθευσης γεγονότων. Oι περιορισμοί προκύπτουν από τον τρόπο με τον οποίο είναι κατασκευασμένα αυτά τα εργαλεία μηχανικής μάθησης», τονίζει ο Ραμπιού Αλχασάν, ιδρυτής του GhanaFact.
Η Νάγκλα Ελεμάρι, σε συζήτηση που είχε διοργανωθεί από τη DW, το Milen και το Βρετανικό Πανεπιστήμιο της Αιγύπτου είχε τονίσει: «Από την οπτική της δικής μας περιοχής του κόσμου, πρέπει να επισημάνω δύο ή τρία σημεία. Υπάρχει ένα τεχνολογικό χάσμα, αλλά υπάρχει επίσης και ένα ιδεολογικό χάσμα. Μπορούμε να το δούμε αυτό στην πολιτική του Facebook σχετικά με την ρητορική μίσους. Είναι πολύ ενδιαφέρον να διαβάσει κανείς τι είπε ο Μαρκ Ζούκερμπεργκ για την πολιτική του Facebook μετά τις εκλογές στις ΗΠΑ. Ανέφερε, για παράδειγμα, ότι πρέπει να προστατεύσει την ακεραιότητα της δημοκρατικής διαδικασίας. Τι σημαίνει αυτό όταν το ακούμε από μια τεχνολογική κολοσσιαία εταιρεία; Είδαμε τόσους πολλούς λογαριασμούς να μπλοκάρονται για ρητορική μίσους, ενώ για εμάς, ήταν η δική μας οπτική σε θέματα στα οποία πιστεύουμε.
Επιπλέον, υπάρχει χάσμα και μέσα στην ίδια τη χώρα. Είναι ενδιαφέρον να δει κανείς στη δική μας περιοχή του κόσμου ποιοι είναι οι ελεγκτές γεγονότων. Ναι, υπάρχουν ελεγκτές γεγονότων όπως ο φίλος μας από τη Γκάνα, αλλά οι πιο ενεργοί στη διαδικασία ελέγχου γεγονότων είναι στην πραγματικότητα οι κυβερνήσεις, εκείνοι που βρίσκονται στην εξουσία ή οι επιχειρηματίες. Υπάρχει ένα τεράστιο χάσμα ανάμεσα σε αυτούς που μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη στη διαδικασία ελέγχου γεγονότων πιο εύκολα από εμάς και στην κοινωνία των πολιτών».
Άλλα ζητήματα στην εφαρμογή της τεχνητής νοημοσύνης
- Ποιότητα δεδομένων εκπαίδευσης: Η ακρίβεια των αλγορίθμων εξαρτάται από την ποιότητα και το μέγεθος των δεδομένων εκπαίδευσης. Η έλλειψη δεδομένων για συγκεκριμένες γλώσσες ή περιοχές περιορίζει την αποτελεσματικότητα των συστημάτων.
- Προκαταλήψεις αλγορίθμων: Υπάρχει κίνδυνος οι αλγόριθμοι να ενσωματώσουν προκαταλήψεις που υπάρχουν στα δεδομένα εκπαίδευσής τους, οδηγώντας σε λανθασμένες εκτιμήσεις.
- Κατανόηση πλαισίου: Η A.I δυσκολεύεται να κατανοήσει «αποχρώσεις» της ανθρώπινης γλώσσας, όπως η ειρωνεία, ο σαρκασμός ή οι πολιτισμικές αναφορές.
- Γλώσσες περιορισμένης κάλυψης: Σύμφωνα με το Reuters Institute, πολλές γλώσσες δεν καλύπτονται επαρκώς από συστήματα Τ.Ν, καθιστώντας την τεχνολογία λιγότερο χρήσιμη σε παγκόσμιο επίπεδο.
Θα γίνονται όλα από τα ρομπότ;
Η ενσωμάτωση της τεχνητής νοημοσύνης στο fact checking προσφέρει τεράστιες δυνατότητες για την καταπολέμηση της παραπληροφόρησης. Ωστόσο, η τεχνολογία δεν μπορεί να λειτουργήσει αποτελεσματικά χωρίς την ανθρώπινη παρέμβαση. Οι ελεγκτές γεγονότων πρέπει να συνεργάζονται στενά με τα συστήματα Τ.Ν, προσφέροντας διορθώσεις και βελτιώσεις. Επιπλέον, η ανάπτυξη των εργαλείων πρέπει να συνοδεύεται από ηθικά πρότυπα και κανονισμούς, διασφαλίζοντας ότι οι αλγόριθμοι δεν παραβιάζουν τη σφαίρα της ιδιωτικότητας ή δεν προωθούν προκαταλήψεις.
Αν και υπάρχουν προκλήσεις, οι δυνατότητες της τεχνητής νοημοσύνης είναι ανεκτίμητες. Η συνεργασία μεταξύ ανθρώπων και μηχανών σε συνδυασμό με τη συνεχή έρευνα, μπορεί να καταπολεμήσει σε σημαντικό βαθμό την παραπληροφόρηση και να ενισχύσει την αλήθεια και την αξιοπιστία, σε έναν κόσμο όπου η ταχύτητα της πληροφορίας συνεχώς αυξάνεται.
* Ολες οι φωτογραφίες του άρθρου δημιουργήθηκαν με τη χρήση τεχνητής νοημοσύνης
Η παραπάνω δημοσίευση συγχρηματοδοτείται από την Ευρωπαϊκή Ένωση στο πλαίσιο του προγράμματος "trAiNing mediA professionals on appLYing advanced, high-impact digital technologieS to combat dISinformation" - ''ANALYSIS'' με ΑΡΙΘΜΟ ΣΥΜΒΑΣΗΣ 2022-1-EL01- KA220-VET-000086883.
Αποποίηση Ευθυνών: Η υποστήριξη της Ευρωπαϊκής Ένωσης για την παραγωγή της παρούσας έκδοσης δεν συνιστά αποδοχή του περιεχομένου, το οποίο αντανακλά τις απόψεις μόνον των δημιουργών, και η Ευρωπαϊκή Επιτροπή δεν φέρει ουδεμία ευθύνη για οποιαδήποτε χρήση των πληροφοριών που εμπεριέχονται σε αυτό.