Της Εύας Καλογήρου
Η τεχνητή νοημοσύνη έχει πάψει να είναι μια αφηρημένη έννοια των επιστημονικών κύκλων και έχει γίνει μέρος της καθημερινής μας ζωής: από τις προτάσεις που βλέπουμε στο κινητό μας, μέχρι τις ιατρικές διαγνώσεις, τις μετακινήσεις και τον τρόπο που δουλεύουμε ή εκπαιδευόμαστε. Η αθόρυβη, αλλά ταχύτατη διείσδυσή της θέτει νέες προκλήσεις, αλλά και ευκαιρίες. Το ερώτημα πλέον δεν είναι αν επηρεάζει τη ζωή μας — αλλά σε ποιο βαθμό την καθορίζει.
Η τεχνητή νοημοσύνη έχει εισβάλει στη ζωή μας και δεν είναι ούτε “καλή” ούτε “κακή” από μόνη της. Είναι ένα εργαλείο, και όπως κάθε εργαλείο, όλα εξαρτώνται από τη χρήση του.
Ο ειδικός στην Πληροφορική – Senior IT Systems Engineer & Solutions Architect Γιάννης Λάγγας, μιλώντας στη LarissaPress εξηγεί το πώς τα μεγάλα γλωσσικά μοντέλα αλλάζουν τη ζωή μας, θετικά και αρνητικά.
Αναλυτικά, αναφέρει τα ακόλουθα:
«Η τεχνητή νοημοσύνη (ΑΙ) δεν είναι πλέον τεχνολογία του μέλλοντος — είναι η πραγματικότητα του σήμερα. Από τις έξυπνες βοηθητικές εφαρμογές στα κινητά μας, μέχρι τα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) όπως το ChatGPT της OpenAI, το Gemini της Google, το Claude της Anthropic, τα Mistral models, αλλά και το LLaMA της Meta, η ΑΙ έχει ήδη αρχίσει να αλλάζει τον τρόπο με τον οποίο εργαζόμαστε, επικοινωνούμε, μαθαίνουμε και σκεφτόμαστε.
Τα LLMs είναι μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε τεράστιο όγκο κειμένου. Μπορούν να απαντούν σε ερωτήσεις, να δημιουργούν περιεχόμενο, να συνοψίζουν ή να μεταφράζουν κείμενα, και να “συνομιλούν” με τρόπο που προσομοιάζει την ανθρώπινη γλώσσα και σκέψη.
Η θετική τους πλευρά είναι εντυπωσιακή: εξοικονόμηση χρόνου, αυτοματοποίηση επαναλαμβανόμενων εργασιών, ευκολότερη πρόσβαση σε πληροφορία, ακόμα και υποστήριξη στη δημιουργία ιδεών ή περιεχομένου. Στην εκπαίδευση, για παράδειγμα, προσφέρουν δυνατότητες εξατομικευμένης μάθησης, ενώ στην υγεία, επιταχύνουν τη διαχείριση δεδομένων. Η τεχνολογία αυτή γίνεται όλο και περισσότερο καθημερινό εργαλείο.
Ωστόσο, κάθε τεχνολογικό άλμα συνοδεύεται από προκλήσεις. Τα LLMs, όσο εξελιγμένα και αν είναι, δεν “κατανοούν” το περιεχόμενο που παράγουν. Βασίζονται σε στατιστική πρόβλεψη λέξεων, γεγονός που τα καθιστά ικανά να δημιουργούν πειστικά αλλά και ενίοτε λανθασμένα ή παραπλανητικά αποτελέσματα — το γνωστό φαινόμενο “hallucination”. Παράλληλα, δημιουργούνται σοβαρά ερωτήματα γύρω από την αξιοπιστία των πληροφοριών, την ιδιωτικότητα, τη δεοντολογία και τον κίνδυνο αντικατάστασης ανθρώπινων ρόλων.
Η πρόκληση, λοιπόν, δεν είναι μόνο τεχνολογική αλλά και κοινωνική. Πώς διασφαλίζουμε ότι οι άνθρωποι θα παραμείνουν στο επίκεντρο; Πώς προστατεύουμε την κριτική σκέψη σε έναν κόσμο γεμάτο έτοιμες απαντήσεις; Αυτά είναι ερωτήματα που δεν απαντώνται με αλγόριθμους — αλλά με πολιτική, παιδεία και συνείδηση.
Η ουσία είναι ότι η τεχνητή νοημοσύνη δεν είναι ούτε “καλή” ούτε “κακή” από μόνη της. Είναι ένα εργαλείο, και όπως κάθε εργαλείο, όλα εξαρτώνται από τη χρήση του. Χρειαζόμαστε κανονιστικά πλαίσια, διαφάνεια, υπεύθυνη αξιοποίηση και —πάνω απ’ όλα— ψηφιακή παιδεία.
Η ΑΙ μπορεί να είναι εξαιρετικά χρήσιμη. Αρκεί να τη γνωρίσουμε σε βάθος — προτού αρχίσει εκείνη να «γνωρίζει» τα πάντα για εμάς».