Του Δημήτρη Καστανάρα
Με αφορμή την τελευταία, για μένα, φωτογραφία που είδα να κυκλοφορεί στα μέσα κοινωνικής δικτύωσης από την φωτιά στην Κερατέα.
Ο φακός του συναδέλφου φωτογράφου Λιάκου Γιάννη, για λογαριασμό του πρακτορείου InTime, συνέλαβε μια πολύ ενδιαφέρουσα στιγμή με μια γιαγιά.
Μία ημέρα μετά η συγκεκριμένη φωτογραφία ξεχάστηκε καθώς εμφανίστηκε μια πολύ ποιο ενδιαφέρουσα με την γιαγιά να έχει πίσω τις τις φλόγες.
Το διαδίκτυο γέμισε με δαύτη!
Για τους περισσότερους δεν είναι τόσο εύκολο να ξεχωρίσουν αν μια φωτογραφία είναι αληθινή η κατασκευασμένη.
Η τεχνητή νοημοσύνη (AI) έχει πλέον τη δυνατότητα να δημιουργεί φωτορεαλιστικές εικόνες που είναι σχεδόν αδύνατο να ξεχωρίσει κανείς από πραγματικές φωτογραφίες, και αυτό ανοίγει τον δρόμο για πολύπλευρη παραπλάνηση.
Έτσι δημιουργούνται αρκετά σημεία κινδύνου όπως δημιουργία ψεύτικων γεγονότων. Μπορεί να δημιουργηθεί μια «φωτογραφία» που δείχνει κάτι που ποτέ δεν συνέβη — όπως έναν πολιτικό σε σκηνικό σκανδάλου ή ένα περιστατικό βίας που δεν υπήρξε ποτέ.
Η τεχνολογία επιτρέπει την τοποθέτηση προσώπων σε ξένα σώματα ή καταστάσεις, δίνοντας την εντύπωση ότι το άτομο συμμετείχε σε κάτι που στην πραγματικότητα δεν έγινε.
Μπορεί να γίνει διαστρέβλωση ιστορικών γεγονότων καθώς μπορούν να παραχθούν «ιστορικές» εικόνες που δείχνουν αλλοιωμένες εκδοχές γεγονότων, αλλάζοντας έτσι την κατανόηση της Ιστορίας.
Το κοινό μπορεί να παραπλανηθεί πάρα πολύ εύκολα από μια τέτοια φωτογραφία, ειδικά αν η εικόνα είναι φωτορεαλιστική και δεν παρουσιάζει εμφανή «λάθη» όπως παραμορφώσεις, περίεργες λεπτομέρειες.
Τότε ακόμη και άτομα με εμπειρία μπορεί να την εκλάβουν ως αληθινή.
Άλλος τρόπος παραπλάνησης είναι όταν μια εικόνα έρχεται μαζί με ένα πειστικό κείμενο ή προέρχεται από μέσο που το κοινό θεωρεί αξιόπιστο. Εδώ η πιθανότητα να την πιστέψουν αυξάνεται δραματικά.
Ακόμη ένας τρόπος παραπλάνησης αν η εικόνα προκαλεί ισχυρά συναισθήματα (σοκ, οργή, συγκίνηση), τότε η κριτική σκέψη μπαίνει σε δεύτερη μοίρα και οι άνθρωποι τη μοιράζονται χωρίς επαλήθευση.
Ας μην ξεχνάμε έρευνες έχουν δείξει ότι οι ψεύτικες εικόνες μπορούν να αυξήσουν την πειστικότητα μιας ψευδούς ιστορίας κατά 20-30%, ακόμη κι αν η εικόνα δεν αποδεικνύει τίποτα από μόνη της.
Αν και υπάρχουν εργαλεία για να εντοπίζουν AI-generated εικόνες, η τεχνολογία βελτιώνεται τόσο γρήγορα που η διάκριση γίνεται όλο και πιο δύσκολη.
Για να μην παρεξηγηθώ, και πριν την ΑΙ δημιουργούνταν πλαστές εικόνες τύπου κολάζ και με την χρήση του photoshop. Η χρήση του ΑΙ έχει πάει όμως πολλά βήματα μπροστά!
Υπάρχουν όμως αρκετοί τρόποι για να δούμε αν μια φωτογραφία είναι πραγματική η κατασκευασμένη από ΑΙ.
Για το κοινό τρόπος αντιμετώπισης είναι ένας: Αναζήτηση της εικόνας σε αξιόπιστα ΜΜΕ ή επίσημες ανακοινώσεις.