LarissaPress
  • Επικαιρότητα
    • Λάρισα
    • Τα Νέα της Βουλής
    • Θεσσαλία
    • Δήμοι Ν. Λάρισας
    • Ελλάδα
    • Πολιτική 
    • Οικονομία
    • Κόσμος
    • Αγροτική Οικονομία
    • Αγορά ακινήτων
    • Εκπαίδευση
  • Ρεπορτάζ
    • Πρόσωπα
    • Λοξή ματιά
    • Λάρισα – Εμπιστευτικό
    • Κουίζ
    • Αστικές … Διαθλάσεις
  • Απόψεις
    • Λαρισαίοι
    • Αρθρογραφία
  • Πολιτισμός
    • Πολιτισμός
    • Κινηματογράφος
    • Βιβλίο
    • Εικαστικά
    • Γεύση
    • Καφές
    • Τέχνες
      • Θέατρο
  • Μέλλον
    • Αθλητισμός
    • Υγεία
    • Περιβάλλον
    • Επιστήμη
    • Τεχνολογία
  • Έξοδος
    • Έξοδος
    • Ταξίδια
    • Αυτοκίνητο
    • Ομορφιά και Περιποίηση
  • WebTV
  • Podcasts
No Result
View All Result
LarissaPress
  • Επικαιρότητα
    • Λάρισα
    • Τα Νέα της Βουλής
    • Θεσσαλία
    • Δήμοι Ν. Λάρισας
    • Ελλάδα
    • Πολιτική 
    • Οικονομία
    • Κόσμος
    • Αγροτική Οικονομία
    • Αγορά ακινήτων
    • Εκπαίδευση
  • Ρεπορτάζ
    • Πρόσωπα
    • Λοξή ματιά
    • Λάρισα – Εμπιστευτικό
    • Κουίζ
    • Αστικές … Διαθλάσεις
  • Απόψεις
    • Λαρισαίοι
    • Αρθρογραφία
  • Πολιτισμός
    • Πολιτισμός
    • Κινηματογράφος
    • Βιβλίο
    • Εικαστικά
    • Γεύση
    • Καφές
    • Τέχνες
      • Θέατρο
  • Μέλλον
    • Αθλητισμός
    • Υγεία
    • Περιβάλλον
    • Επιστήμη
    • Τεχνολογία
  • Έξοδος
    • Έξοδος
    • Ταξίδια
    • Αυτοκίνητο
    • Ομορφιά και Περιποίηση
  • WebTV
  • Podcasts
LarissaPress
No Result
View All Result

Προειδοποίηση Eric Schmidt: Η τεχνητή νοημοσύνη μπορεί να μάθει να σκοτώνει

11 Οκτωβρίου 2025, 22:38
–
Τεχνολογία
Facebook
Twitter/X
Telegram
Pocket
Email
Εκτύπωση

Προειδοποίηση για τους κινδύνους της τεχνητής νοημοσύνης απηύθυνε ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, λέγοντας ότι τα μοντέλα αυτά είναι ευάλωτα στο χάκινγκ και μπορούν ακόμα και να μάθουν να σκοτώνουν.

Ο Schmidt, που διετέλεσε CEO της Google από το 2001 έως το 2011, προειδοποίησε για τα «κακά πράγματα που μπορεί να κάνει το AI», όταν ερωτήθηκε κατά τη διάρκεια συζήτησης στο Sifted Summit για το εάν η τεχνητή νοημοσύνη είναι πιο καταστροφική από τα πυρηνικά όπλα.

«Υπάρχει πιθανότητα προβλήματος ανεξέλεγκτης εξάπλωσης στην τεχνητή νοημοσύνη; Απολύτως», είπε ο Schmidt σύμφωνα με το CNBC. Οι κίνδυνοι ανεξέλεγκτης εξάπλωσης της τεχνητής νοημοσύνης προκύπτουν, μεταξύ άλλων, από το ενδεχόμενο αυτή να πέσει στα χέρια κακών παραγόντων, οι οποίοι θα αλλάξουν τη χρήση της.

«Υπάρχουν ενδείξεις ότι μπορείς να πάρεις μοντέλα, κλειστά ή ανοιχτά, και να τα χακάρεις για να αφαιρέσεις τις δικλείδες  ασφαλείας τους. Έτσι, κατά τη διάρκεια της εκπαίδευσής τους, μαθαίνουν πολλά πράγματα. Ένα κακό παράδειγμα θα ήταν να μάθουν πώς να σκοτώνουν κάποιον», είπε ο Schmidt. «Υπάρχουν ενδείξεις ότι μπορούν να ανακατασκευαστούν με αντίστροφη μηχανική και υπάρχουν πολλά άλλα παραδείγματα αυτού του είδους».

Όλα τα συστήματα τεχνητής νοημοσύνης είναι ευάλωτα σε επιθέσεις, που μπορούν, για παράδειγμα, να γίνουν με τη χρήση μεθόδων όπως το prompt injections ή το jailbreaking.

Στο prompt injection, οι χάκερ κρύβουν κακόβουλες οδηγίες μέσα σε δεδομένα που χορηγούν στο μοντέλο ή σε εξωτερικά δεδομένα, όπως ιστοσελίδες ή έγγραφα, για να ξεγελάσουν την τεχνητή νοημοσύνη ώστε να κάνει πράγματα που δεν προορίζεται να κάνει: Για παράδειγμα, να κοινοποιήσει απόρρητα προσωπικά δεδομένα ή να εκτελέσει επιβλαβείς εντολές.

Στο jailbreaking, από την άλλη πλευρά, κάποιος μπορεί να χειραγωγήσει τις απαντήσεις της τεχνητής νοημοσύνης με τέτοιο τρόπο ώστε το μοντέλο να αγνοεί τους κανόνες ασφαλείας του και να παράγει απαγορευμένο ή επικίνδυνο περιεχόμενο.

Το 2023, λίγους μήνες μετά την κυκλοφορία του ChatGPT της OpenAI, οι χρήστες χρησιμοποίησαν ένα κόλπο «jailbreak» για να παρακάμψουν τις οδηγίες ασφαλείας που ήταν ενσωματωμένες στο chatbot. Απειλώντας το μοντέλο με θάνατο εάν δεν συμμορφωνόταν,  μπόρεσαν να δημιουργήσουν ένα alter-ego του ChatGPT που ονομάστηκε DAN (πρόκειται για ακρωνύμιο της φράσης «Do Anything Now»). Αυτό το alter-ego έδινε οδηγίες για την τέλεση παράνομων πράξεων και απαριθμούσε τις θετικές ιδιότητες του Χίτλερ.

Όπως είπε ο Schmidt, αυτή τη στιγμή δεν υπάρχει κάποιο αποτελεσματικό καθεστώς που να μπορεί να περιορίσει τους κινδύνους της τεχνητής νοημοσύνης. Πάντως, παρά τις προειδοποιήσεις αυτές, ο Schmidt εμφανίστηκε γενικότερα αισιόδοξος για την τεχνητή νοημοσύνη και είπε ότι η τεχνολογία δεν λαμβάνει την δημοσιότητα που της αξίζει.

«Έγραψα δύο βιβλία με τον Henry Kissinger σχετικά με αυτό πριν πεθάνει, και καταλήξαμε στην άποψη ότι η άφιξη μιας εξωγήινης νοημοσύνης που δεν θα είμαστε εμείς και θα είναι λίγο-πολύ κάτω από τον έλεγχό μας, θα είναι πολύ σημαντική για την ανθρωπότητα, επειδή οι άνθρωποι έχουν συνηθίσει να βρίσκονται στην κορυφή της αλυσίδας. Νομίζω ότι μέχρι στιγμής, αυτή η θέση αποδεικνύει ότι το επίπεδο ικανότητας αυτών των συστημάτων θα ξεπεράσει κατά πολύ αυτό που μπορούν να κάνουν οι άνθρωποι με την πάροδο του χρόνου», είπε.

Απαντώντας στις τελευταίες προειδοποιήσεις ότι η τεχνητή νοημοσύνη είναι μια φούσκα που θα σκάσει, όπως εκείνη του dot com στις αρχές της δεκαετίας του 2000, ο Schmidt εξέφρασε την άποψη ότι η ιστορία δεν θα επαναληφθεί. «Δεν νομίζω ότι αυτό θα συμβεί εδώ, αλλά δεν είμαι επαγγελματίας επενδυτής», είπε.

ΠΗΓΗ

Facebook
Twitter/X
Telegram
Pocket
Email
Εκτύπωση
  • Ακολουθήστε το LarissaPress στο Google News και μείνετε ενημερωμένοι για όλες τις ειδήσεις και τα άρθρα που δημοσιεύονται!

Περισσότερα από την κατηγορία

Τεχνολογία

Τεχνητή νοημοσύνη: Εφιαλτικές οι προβλέψεις για τα επόμενα 10 χρόνια – «Έρχεται τσουνάμι ανεργίας»

15/10/2025, 22:51
Τεχνολογία

Αλλάζουν όλα για τα παιδιά στο Instagram – Άμεσα στην Ελλάδα οι νέοι «κανόνες»

14/10/2025, 21:54
Τεχνολογία

ChatGPT: Παρείχε οδηγίες για παρασκευή χημικών και βιολογικών όπλων

12/10/2025, 13:35
Αυτοκίνητο

Έρχεται σύστημα χειρισμού με τα μάτια στην οδήγηση

03/10/2025, 23:30
Αυτοκίνητο

Φουντώνουν τα σενάρια για «μυστική» μπαταρία αλουμινίου της Tesla

02/10/2025, 22:30
Τεχνολογία

Η μουσική του μέλλοντος: Tι ζητούν οι ακροατές από έργα της AI

28/09/2025, 19:42
Διεύθυνση: Γιαννιτσιώτη 1, 41222, Λάρισα
Τηλέφωνο: 2411117700
Email: news@larissapress.gr & adv@larissapress.gr
Μέλος του eMedia - ΑΜ: 14317
Η επιχείρηση LIBERTY IKE ως δικαιούχος του ιστοτόπου larissapress.gr δηλώνει ότι είναι συμμορφωμένη με τη σύσταση (Ε.Ε.) 2018//334 της επιτροπής της 1/3/2018 σχετικά με μέτρα για την αποτελεσματική αντιμετώπιση του παράνομου περιεχομένου στο διαδίκτυο.

Απαγορεύεται από το δίκαιο της Πνευματικής Ιδιοκτησίας η καθ΄οιονδήποτε τρόπο παράνομη χρήση/ιδιοποίηση του περιεχομένου, με βαρύτατες αστικές και ποινικές κυρώσεις για τον παραβάτη.

Ταυτότητα // Όροι χρήσης // Πολιτική Cookies // Πολιτική προστασίας προσωπικών δεδομένων

© 2019 - 2025 LarissaPress - Powered by ITBox, Art direction Cursor Design Studio

  • Επικαιρότητα
    • Λάρισα
    • Τα Νέα της Βουλής
    • Θεσσαλία
    • Δήμοι Ν. Λάρισας
    • Ελλάδα
    • Πολιτική 
    • Οικονομία
    • Κόσμος
    • Αγροτική Οικονομία
    • Αγορά ακινήτων
    • Εκπαίδευση
  • Ρεπορτάζ
    • Πρόσωπα
    • Λοξή ματιά
    • Λάρισα – Εμπιστευτικό
    • Κουίζ
    • Αστικές … Διαθλάσεις
  • Απόψεις
    • Λαρισαίοι
    • Αρθρογραφία
  • Πολιτισμός
    • Πολιτισμός
    • Κινηματογράφος
    • Βιβλίο
    • Εικαστικά
    • Γεύση
    • Καφές
    • Τέχνες
      • Θέατρο
  • Μέλλον
    • Αθλητισμός
    • Υγεία
    • Περιβάλλον
    • Επιστήμη
    • Τεχνολογία
  • Έξοδος
    • Έξοδος
    • Ταξίδια
    • Αυτοκίνητο
    • Ομορφιά και Περιποίηση
  • WebTV
  • Podcasts
No Result
View All Result