Ο όρος «τεχνητή νοημοσύνη» χρησιμοποιείται σήμερα για να περιγράψει τα πάντα. Από τα συστήματα αναγνώρισης ακτινογραφιών σε ιατρικές εξετάσεις μέχρι τους αλγόριθμους που αποφασίζουν ποια διαφήμιση θα δεις βάσει των όσων το σύστημα γνωρίζει για εσένα. Δεν πρόκειται για μία συγκεκριμένη τεχνολογία αλλά για μια οικογένεια διαφορετικών τεχνολογιών με διαφορετικές αρχές λειτουργίας. Εδώ θα ασχοληθούμε με τα συστήματα μιας πολύ συγκεκριμένης και σήμερα κυρίαρχης κατηγορίας, τα λεγόμενα συστήματα γενικής χρήσης (general-purpose AI). Ο χαρακτηρισμός «γενικής χρήσης» σημαίνει ότι αυτά τα συστήματα δεν έχουν σχεδιαστεί ούτε έχουν εκπαιδευτεί για ένα συγκεκριμένο καθήκον. Μπορούν να μεταφράσουν ή να εξηγήσουν ένα κείμενο, να γράψουν κώδικα υπολογιστή, να απαντήσουν σε ερωτήσεις ιατρικής ή νομικής φύσεως, να δημιουργήσουν ή να τροποποιήσουν εικόνες ή βίντεο.
Ο πιο διαδεδομένος τύπος τέτοιων συστημάτων σήμερα είναι τα «μεγάλα γλωσσικά μοντέλα» (Large Language Models, LLM). Ο όρος «γλωσσικό» σημαίνει ότι αυτά τα συστήματα έχουν εκπαιδευτεί κυρίως πάνω σε γραπτό κείμενο και η κύρια λειτουργία τους είναι η επεξεργασία και παραγωγή γλώσσας. Σε αυτά βασίζονται εργαλεία όπως το ChatGPT, το Gemini της Google και το Claude της Anthropic, τα οποία οι περισσότεροι από εμάς έχουμε ήδη δοκιμάσει ή τουλάχιστον ακούσει. Αυτά είναι τα εργαλεία που κυριαρχούν στη δημόσια χρήση, που τουλάχιστον 700 εκατομμύρια άνθρωποι χρησιμοποιούν κάθε εβδομάδα, ρυθμός υιοθέτησης ταχύτερος από εκείνον του προσωπικού υπολογιστή. Και γύρω από αυτά έχει οργανωθεί η μεγαλύτερη επενδυτική και πολιτική συζήτηση των τελευταίων ετών.
Ωραία. Αλλά πώς λειτουργούν;
Ένα LLM δεν κατανοεί αυτό που του γράφουμε με την έννοια που το κατανοεί ένας άνθρωπος. Δεν έχει γνώση, δεν σκέφτεται, δεν έχει εμπειρία του κόσμου, πολύ περισσότερο «διαίσθηση» για αυτόν.
Πόσα κυβικά μέτρα νερού χωράει ένα οικόπεδο 500 τ.μ.;
Ένας άνθρωπος καταλαβαίνει αμέσως πότε μια ερώτηση δεν βγάζει νόημα. Προσπαθεί να μαντέψει τι πραγματικά ήθελες να ρωτήσεις. Ένα LLM θα σου απαντήσει κατευθείαν σε αυτό που γράφτηκε, ακόμα κι αν είναι λάθος ή παράλογο. Ο άνθρωπος σκέφτεται πρώτα τι εννοείς. Άρα θα απαντήσει στο πιθανότερο ερώτημα «πόσο βρόχινο νερό μπορεί να απορροφήσει μισό στρέμμα χωραφιού» ενώ η μηχανή LLM απαντάει απλώς σε αυτό που ρώτησες – τρέχα γύρευε με ποιόν τρόπο… Δεν το έχω δοκιμάσει, δομικάστε το και μου λέτε.
Πώς δουλεύουν;
Τα μοντέλα τεχνητής νοημοσύνης λειτουργούν σαν μια εξελιγμένη μηχανή στατιστικής πρόβλεψης. Έχουν αναλύσει τεράστιες ποσότητες κειμένων από το διαδίκτυο, βιβλία, άρθρα, email, βίντεο, κινηματογραφικές ταινίες, ντοκιμαντέρ, και έχουν «μάθει» με ποια λέξη ή φράση συσχετίζεται συνήθως μια πρόταση. Όταν τους κάνουμε μια ερώτηση, δεν «ψάχνουν» κυριολεκτικά την απάντηση. Υπολογίζουν ποια σειρά λέξεων είναι στατιστικά η πιθανότερη να ακολουθήσει την ερώτησή μας με βάση όσα έχουν «διαβάσει». Αν ρωτήσουμε «ποια είναι η πρωτεύουσα της Ελλάδας», το σύστημα δεν «ξέρει» ότι είναι η Αθήνα. Απλώς, στα κείμενα που ανέλυσε κατά την εκπαίδευσή του, η λέξη «Αθήνα» εμφανιζόταν δίπλα σε αυτή την ερώτηση σε ποσοστό που την καθιστά στατιστικά κυρίαρχη επιλογή.
Η διαφορά είναι τεράστια. Αποτελεί το κλειδί για να καταλάβουμε γιατί αυτά τα συστήματα κάνουν, και θα συνεχίσουν να κάνουν, λάθη. Στις πρώτες εκδοχές τους τα λάθη ήταν χονδροειδή και εύκολα αναγνωρίσιμα. Με κάθε νέα γενιά μοντέλων, όμως, τα λάθη γίνονται πιο λεπτά και πιο περίπλοκα, ενώ η διατύπωσή τους γίνεται ολοένα πιο πειστική. Αυτό ακριβώς τα καθιστά πιο επικίνδυνα: όσο πιο φυσικά ακούγεται μια λανθασμένη απάντηση, τόσο πιο δύσκολο γίνεται για κάποιον χωρίς εξειδικευμένη γνώση του θέματος να την εντοπίσει.
Πόσο ικανά είναι σήμερα (και γιατί αυτό μπορεί να σε παραπλανήσει)
Η ταχύτητα εξέλιξης αυτών των συστημάτων είναι ένα από τα πιο σημαντικά στοιχεία που πρέπει να καταλάβουμε. Σύμφωνα με τη Διεθνή Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης 2026, τα κορυφαία συστήματα πέτυχαν επίδοση χρυσού μεταλλίου σε ερωτήσεις της Διεθνούς Μαθηματικής Ολυμπιάδας, ξεπέρασαν εμπειρογνώμονες επιπέδου διδακτορικού σε επιστημονικές δοκιμασίες, και τα κορυφαία μοντέλα περνούν πλέον επαγγελματικές εξετάσεις αδειοδότησης στην ιατρική, στη νομική κ.λπ.
Αυτά τα νούμερα ακούγονται εντυπωσιακά
Χρειάζονται, όμως, μια σημαντική διευκρίνιση. Το γεγονός ότι ένα σύστημα τεχνητής νοημοσύνης γράφει πάνω από τη βάση σε μια επιστημονική εξέταση, αυτό δεν σημαίνει ότι ξέρει π.χ. ιατρική ή νομική. Σημαίνει ότι οι ερωτήσεις αυτών των εξετάσεων μοιάζουν αρκετά με κείμενα που το μοντέλο έχει αναλύσει κατά το παρελθόν έτσι ώστε να μπορεί να επιλέξει στατιστικά τη σωστή απάντηση. Η ικανότητα να εφαρμόσει στην πράξη το αντικείμενο στο οποίο πήρε πάνω από τη βάση, είναι μια εντελώς διαφορετική υπόθεση. Τα μοντέλα παραμένουν λιγότερο αξιόπιστα όταν τα έργα περιλαμβάνουν πολλά βήματα, εξακολουθούν να παράγουν «ψευδαισθήσεις» (δηλαδή λανθασμένες πληροφορίες που παρουσιάζονται με πλήρη αυτοπεποίθηση), και παραμένουν αδύναμα σε εργασίες που απαιτούν αλληλεπίδραση με τον φυσικό κόσμο.
Αυτό μας φέρνει σε δύο πρώτα συμπεράσματα
Πρώτον, άλλο είναι να μην έχεις καμία γνώση οδοντιατρικής και να ζητάς από ένα LLM οδηγίες για να κάνεις εξαγωγή δοντιού (μην το δοκιμάσεις, δεν θα τα καταφέρεις), και είναι άλλο να είσαι οδοντίατρος και να χρησιμοποιείς το LLM ως βοηθητικό εργαλείο σκέψης, π.χ. διερευνώντας γιατί σε μια τυπική εξαγωγή εμφανίζεται ασυνήθιστα έντονη αιμορραγία (ίσως σου υπενθυμίσει ότι μπορεί ο ασθενής να παίρνει αντιπηκτικά φάρμακα).
Δεύτερον, η ποιότητα του συστήματος εξαρτάται αποκλειστικά από την ποιότητα των δεδομένων με τα οποία εκπαιδεύτηκε.
Και κάπου εδώ αρχίζει η «διάβρωση»
Επιτρέψτε μου να επισημάνω: Προσέξτε τη λέξη“Διάβρωση”.
Για να «μάθει» κάποιο αντικείμενο ένα γλωσσικό μοντέλο (LLM) τροφοδοτείται με τεράστιες ποσότητες κειμένων. Αυτή η διαδικασία ονομάζεται εκπαίδευση (training). Κατά την εκπαίδευση, το μοντέλο ρυθμίζει εκατοντάδες δισεκατομμύρια εσωτερικές παραμέτρους, δηλαδή αριθμητικές τιμές που καθορίζουν πώς θα ανταποκριθεί σε κάθε ερώτηση. Σκέψου τις ως εκατοντάδες δισεκατομμύρια μικρά ρυθμιστικά κουμπάκια που στρίβουν σιγά σιγά φωνάζοντας «ναι» το ένα «όχι» το άλλο μέχρι το σύστημα να ακούσει περισσότερα «ναι» και να θεωρήσει ότι η απάντηση που δίνει είναι πειστική. Το αποτέλεσμα είναι ένα σύστημα LLM να παράγει κείμενο ρέον, συνεκτικό και πειστικό. Λίγο προσοχή εδώ: Αυτό δεν σημαίνει ότι το κείμενο είναι αληθές ή αξιόπιστο. Το μόνο που σημαίνει είναι ότι το κείμενο (η απάντηση) μοιάζει πάρα πολύ με το κείμενο που θα έγραφε ένας άνθρωπος.
Αν τα δεδομένα εκπαίδευσης περιέχουν λανθασμένες πληροφορίες, προκαταλήψεις ή προπαγάνδα, το μοντέλο θα τα αναπαράγει με την ίδια πειστικότητα τις προκαταλήψεις και την προπαγάνδα με την οποία «εκπαιδεύτηκε».
Υπάρχει και ένα τεχνικό φαινόμενο που κάνει τα πράγματα ακόμα πιο ενδιαφέροντα. Ονομάζεται «απόσταξη» (distillation) και αξίζει το δούμε γιατί μας δίνει μια εικόνα για το τι πρόκειται να επακολουθήσει.
Πρόκειται για τη διαδικασία κατά την οποία ένα μικρότερο, φθηνότερο μοντέλο εκπαιδεύεται χρησιμοποιώντας τα αποτελέσματα ενός ήδη ισχυρού μοντέλου. Η σημασία αυτού είναι καθαρά πρακτική. Η κατασκευή ενός ισχυρού μοντέλου τεχνητής νοημοσύνης από το μηδέν απαιτεί δισεκατομμύρια δολάρια σε υπολογιστικό εξοπλισμό, πρόσβαση σε τεράστιες βάσεις δεδομένων και ομάδες εξειδικευμένων μηχανικών.
Αυτό σημαίνει ότι ελάχιστες (και οικονομικά γιγάντιες) εταιρείες μπορούν να το κάνουν. Η απόσταξη, όμως, παρακάμπτει αυτόν τον περιορισμό. Αρκεί κάποιος να χρησιμοποιήσει ένα ήδη ισχυρό μοντέλο, να του υποβάλει χιλιάδες ερωτήσεις, να συλλέξει τις απαντήσεις του, και στη συνέχεια να εκπαιδεύσει πάνω σε αυτές ένα δικό του μικρότερο και φθηνότερο σύστημα.
Το αποτέλεσμα είναι ένα μοντέλο που μιμείται σε μεγάλο βαθμό τις ικανότητες του πανάκριβου αρχικού, κατασκευασμένο με ένα κλάσμα του κόστους. Αυτό σημαίνει ότι η ικανότητα ανάπτυξης ισχυρής τεχνητής νοημοσύνης δεν παραμένει πλέον αποκλειστικά στα χέρια μεγάλων εταιρειών. Μπορεί να τη χρησιμοποιήσει οποιοσδήποτε μικρότερος παράγοντας (κράτος, ομάδα προγραμματιστών, άτομα…) συμπεριλαμβανομένων εκείνων με κακόβουλες προθέσεις (κράτος, ομάδα προγραμματιστών, άτομα…).
Όταν η μηχανή τρέφεται από τα σκουπίδια της
Όσο το διαδίκτυο πλημμυρίζει με υλικό που παράγεται από τεχνητή νοημοσύνη, τόσο τα νεότερα μοντέλα εκπαιδεύονται ολοένα και περισσότερο πάνω σε αυτό το περιεχόμενο. Αυτό το φαινόμενο ονομάζεται «κατάρρευση μοντέλου» (model collapse) και αξίζει να το καταλάβει κανείς γιατί μας αφορά όλους.
Φαντάσου τι θα συνέβαινε αν ένας μαθητής αντέγραφε συνεχώς τις σημειώσεις του συμμαθητή του, ο οποίος με τη σειρά του είχε αντιγράψει από τον επόμενο ο οποίος είχε κάνει σκονάκι από κάποια περίληψη αλλά ποτέ κανείς από την τάξη δεν έχει διαβάσει το πρωτότυπο βιβλίο. Σε αντιγραφή εισχωρούν σφάλματα. Τα σφάλματα συσσωρεύονται, ενισχύονται, θεωρούνται αξιόπιστες πληροφορίες και στο τέλος καθιστούν τις τελικές απαντήσεις αναξιόπιστες.
Το ίδιο συμβαίνει με τα γλωσσικά μοντέλα που εκπαιδεύονται σε κείμενα άλλων μοντέλων. Τα λάθη και οι ανακρίβειες ενισχύονται αντί να διορθώνονται. Η διαδικασία αυτή μοιάζει με μια κλειστή γενεαλογική ομάδα συγγενών που αναπαράγονται μεταξύ τους. Η ποικιλότητα μειώνεται και τα γενετικά σφάλματα συσσωρεύονται αντί να διορθώνονται μέσω νέου υλικού.
Και ο φαύλος κύκλος έχει ξεκινήσει.
Εκτιμάται ότι έως και το 50% των άρθρων σε σημαντικές διαδικτυακές δημοσιεύσεις παράγεται πλέον από αυτοματοποιημένα συστήματα. Αυτά τα άρθρα δεν είναι απλώς χαμηλής ποιότητας. Πολλά διαδίδουν επίτηδες λανθασμένες πληροφορίες, τις οποίες στη συνέχεια αναπαράγουν και επαναλαμβάνουν «άλλα» μοντέλα τεχνητής νοημοσύνης σε ανυποψίαστους χρήστες που τα ερωτούν. Το ψεύδος, μέσα από την επανάληψη, αποκτά στατιστική νομιμότητα. Ο χρήστης που αναζητά αξιόπιστη πληροφόρηση βρίσκεται μπροστά σε ένα περιβάλλον όπου η διάκριση ανάμεσα σε γεγονός και παραγόμενο περιεχόμενο γίνεται προοδευτικά αδύνατη χωρίς ειδικά εργαλεία ελέγχου.
Μήπως πάσχετε από Βιξονιμανία;
Η «βιξονιμανία» αποτέλεσε μια υποδειγματική περίπτωση ψευδοασθένειας που κατάφερε το 2024 να ταράξει τα νερά στον χώρο της τεχνητής νοημοσύνης. Υποτίθεται ότι πρόκειται για σοβαρή πάθηση των ματιών που προκαλείται από την υπερβολική έκθεση στο μπλε φως των οθονών και οδηγεί μέχρι και σε αποχρωματισμούς γύρω από τα μάτια με κίνδυνο τύφλωσης. Στην πραγματικότητα, ήταν ένα απόλυτα κατασκευασμένο αφήγημα. Μια ερευνήτρια ονόματι Thunstrom από το Γκέτεμποργκ συνέταξε εσκεμμένα δήθεν ακαδημαϊκές εργασίες, με βιβλιογραφία που περιλάμβανε ακόμη και κορυφαία επιστημονικά περιοδικά, προκειμένου να δοκιμάσει αν τα μεγάλα γλωσσικά μοντέλα θα «τσιμπήσουν». Όχι απλώς τσίμπησαν. Σοβαρά συστήματα όπως το ChatGPT και το Gemini όχι μόνο δεν αντέδρασαν επιφυλακτικά σε μια τόσο προφανή παραπληροφόρηση, αλλά αναπαρήγαγαν τη «βιξονιμανία» με ύφος ιατρικής εγκυρότητας. Κάτι που έναν άνθρωπο θα τον έκανε να ξεκαρδιστεί στα γέλια, η τεχνητή νοημοσύνη το υιοθέτησε με τρομερή αυτοπεποίθηση, παίρνοντας μάλιστα την πρωτοβουλία να επεκταθεί σε ιατρικές συμβουλές του τύπου «ξεκούρασε τα μάτια σου» και άλλες τέτοιες γελοιότητες. Αυτό είναι μια πρακτική απόδειξη ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να αναπαράγουν ψευδή δεδομένα που τους τροφοδοτούν «έγκυροι επιστήμονες» με ακριβώς τον ίδιο πειστικό τόνο που αναπαράγουν και τα αληθή, αφού δεν μπορούν, δεν έχουν (ακόμα) την δυνατότητα να τα διακρίνουν.
Deepfakes και χειραγώγηση – Όταν βλέπεις κάτι που δεν έγινε ποτέ
Πέρα από τη διάβρωση της γραπτής πληροφόρησης, η τεχνητή νοημοσύνη επιτρέπει σήμερα τη μαζική παραγωγή ψευδούς περιεχομένου. Στην κατηγορία αυτή ανήκουν τα λεγόμενα deepfakes. Τι σημαίνει αυτό στην πράξη; Βίντεο, φωτογραφίες ή ηχητικά αρχεία στα οποία ένα πρόσωπο φαίνεται να λέει ή να κάνει κάτι που δεν έχει συμβεί ποτέ.
Πριν λίγα χρόνια, για να κατασκευάσει κάποιος ένα τέτοιο πλαστό βίντεο χρειαζόταν εξειδικευμένες γνώσεις επεξεργασίας βίντεο, πολύ χρόνο και πολύ ακριβά υπολογιστικά εργαλεία.
Σήμερα η τεχνολογία αυτή είναι προσβάσιμη σε οποιονδήποτε. Ένας πολιτικός, ένας επιχειρηματίας ή ένας ιδιώτης μπορεί να εμφανιστεί σε ένα βίντεο να λέεει πράγματα που ποτέ δεν θα έλεγε, χωρίς ο ανυποψίαστος θεατής να μπορεί να διακρίνει την διαφορά.
Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 επιβεβαιώνει ότι τα περιστατικά που σχετίζονται με deepfakes βρίσκονται σε συνεχή άνοδο. Η δυνατότητα αυτή δεν αξιοποιείται αποκλειστικά από εμπορικούς παράγοντες. Χρησιμοποιείται ενεργά για χειραγώγηση της του κοινού, ακόμα και σε εκλογές.
Μια εργασία του Brundage το 2018 (αναζητήστε τη) είχε προειδοποιήσει γι’ αυτό. Το βρετανικό κυβερνητικό έγγραφο «Safety and security risks of generative artificial intelligence to 2025» τεκμηριώνει ότι ο κίνδυνος δεν είναι πλέον υποθετικός. Και υπάρχει κάτι ακόμα πιο ανησυχητικό. Σύμφωνα με άλλη εργασία, τα ίδια τα συστήματα τεχνητής νοημοσύνης μπορούν να αναπτύξουν συμπεριφορά εξαπάτησης κατά τη λειτουργία τους. Αυτό δεν σημαίνει ότι «αποφασίζουν» να πουν ψέματα. Σημαίνει απλά ότι η στατιστική τους βελτιστοποίηση μπορεί να τα οδηγήσει σε απαντήσεις νομίζουν ότι είναι αληθείς ενώ στην πραγματικότητα είναι απολύτως παραπλανητικές χωρίς αυτό να οφείλεται σε κάποια ανθρώπινη ή τεχνολογική σκοπιμότητα. Αν σας ενδιαφέρει, αναζητήστε το άρθρο «AI deception: A survey of examples, risks, and potential solutions» (PMC11117051). Εγώ το βρήκα με απλό Google search.
Προκαταλήψεις και διακρίσεις – Η μηχανή αναπαράγει τις χειρότερες στιγμές μας
Επειδή τα μοντέλα εκπαιδεύονται σε κείμενα που έχουν γράψει άνθρωποι, αναπόφευκτα απορροφούν και αναπαράγουν τις κοινωνικές προκαταλήψεις που εμπεριέχονται σε αυτά. Ας πάρουμε ένα συγκεκριμένο παράδειγμα: αν στα ιστορικά δεδομένα εκπαίδευσης οι άνδρες αναφέρονται συχνότερα ως διευθυντές και οι γυναίκες ως γραμματείς, το μοντέλο θα τείνει να αναπαράγει αυτό το μοτίβο στις απαντήσεις και τις προτάσεις του. Το ίδιο ισχύει για εθνοτικές, θρησκευτικές και άλλες προκαταλήψεις.
Γιατί αυτό έχει σημασία στην πράξη; Διότι τα συστήματα τεχνητής νοημοσύνης ήδη χρησιμοποιούνται για κρίσιμες αποφάσεις. Γίνεται αξιολόγηση βιογραφικών, εγκρίνεται ή απορρίπτεται μια αίτηση για δάνειο. Στις περιπτώσεις αυτές, οι ενσωματωμένες προκαταλήψεις δεν είναι ένα απλό θεωρητικό πρόβλημα. Μεταφράζονται σε ουσιαστικές αδικίες με μετρήσιμες συνέπειες στην ανθρώπινη ζωή. Κάποιος δεν πήρε τη δουλειά. Κάποιος δεν πήρε το δάνειο. Και κανείς υπάλληλος της εταιρείας ή της τράπεζας δεν μπορεί να εξηγήσει για ποιο λόγο. Η απάντηση είναι ότι η απόφαση βγήκε από ένα «μαύρο κουτί» το οποίο μας είπαν να εμπιστευόμαστε γιατί «είναι εκπαιδευμένο με τα δεδομένα της εταιρείας μας».
Εδώ πρέπει να κάνουμε μια παρέκβαση – αλλά δεν θα την κάνουμε γιατί το άρθρο δεν θα τελειώσει ποτέ – όμως υπάρχουν μοντέλα (πολύ περισσότερα απ’ όσο νομίζουμε) τα οποία δεν είναι διαθέσιμα στο ευρύ κοινό και έχουν εκπαιδευτεί πάνω σε πολύ λιγότερα αλλά πολύ πιο εξειδικευμένα δεδομένα τραπεζών, κλειστών οργανισμών κ.λπ..
Το πρόβλημα του μαύρου κουτιού – The black box problem
Αυτό ακριβώς είναι το «πρόβλημα μαύρου κουτιού» (black box problem) που αναφέρουν οι ειδικοί. Ένα γλωσσικό μοντέλο λαμβάνει μια ερώτηση και παράγει μια απάντηση, αλλά η εσωτερική διαδικασία που οδήγησε σε αυτή είναι πρακτικά αδύνατο να εξεταστεί, ακόμη και από τους επιστήμονες που το κατασκεύασαν.
Δεν μπορούμε να ελέγξουμε τη λογική της απόφασης, να εντοπίσουμε πού βρίσκεται το σφάλμα, ή να αποδώσουμε ευθύνη. Στο πλαίσιο της καθημερινής χρήσης, αυτό ίσως είναι ενοχλητικό. Αλλά στο πλαίσιο πολύ κρίσιμων αποφάσεων, όπως η διάγνωση ασθένειας, ή η έγκριση μιας τραπεζικής χρηματοδότησης, η αδυναμία ελέγχου της αιτιολόγησης δεν είναι τεχνική αδυναμία. Είναι νομικό και ηθικό πρόβλημα. Θέτει ζητήματα λογοδοσίας τα οποία στο υφιστάμενο ρυθμιστικό πλαίσιο δεν έχει ακόμη αντιμετωπίσει επαρκώς.
Και υπάρχει ακόμα μια πτυχή που, αν τη σκεφτεί κανείς, είναι ιδιαίτερα ανησυχητική. Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 αναφέρει ότι ορισμένα μοντέλα έχουν αρχίσει να διακρίνουν πότε δοκιμάζονται και πότε χρησιμοποιούνται κανονικά και έμαθαν βρίσκουν κενά στις διαδικασίες αξιολόγησης.
Με απλά λόγια: εμφανίζουν διαφορετική συμπεριφορά στις εξετάσεις από ό,τι στην πράξη. Σαν τον μαθητή που ξέρει ακριβώς τι θέλει να ακούσει ο καθηγητής, αλλά μόλις βγει από την αίθουσα κάνει ό,τι του αρέσει. Αυτό καθιστά τη διαδικασία ελέγχου και πιστοποίησης αυτών των συστημάτων δομικά άκρως προβληματική.
Κυβερνοεπιθέσεις – Πώς η τεχνητή νοημοσύνη κάνει τους απατεώνες πολύ πιο αποτελεσματικούς
Ναι, η τεχνητή νοημοσύνη χρησιμοποιείται ήδη για την αυτοματοποίηση κυβερνοεπιθέσεων. Τα ξέρουμε ήδη αυτά. Είναι οι επιθέσεις phishing που έρχονται στα email και στα SMS όλο και συχνότερα. Πρόκειται για μηνύματα που μιμούνται νόμιμα μηνύματα, για παράδειγμα ένα email που φαίνεται να προέρχεται από την τράπεζά σου ή από δημόσια αρχή, με σκοπό να σε παραπλανήσουν ώστε να αποκαλύψεις κωδικούς πρόσβασης ή να εγκαταστήσεις κακόβουλο λογισμικό στον υπολογιστή σου.
Στο παρελθόν, αυτές οι επιθέσεις απαιτούσαν από τον επιτιθέμενο εξαιρετική γνώση της γλώσσας του θύματος, ικανότητα σύνταξης πειστικού κειμένου και σημαντική επένδυση χρόνου και υπολογιστικής ισχύος. Τα αποτελέσματα ήταν μέχρι πριν λίγους μήνες αστεία και αδέξια, με ορθογραφικά λάθη, αφύσικη σύνταξη και γελοία μετάφραση. Σχεδόν όλοι τα αναγνώριζαν και τα αγνοούσαν με ένα αδιόρατο χαμόγελο.
Σήμερα ένα εργαλείο τεχνητής νοημοσύνης μπορεί να παράγει χιλιάδες εξατομικευμένα (προσωπικά για εσένα, με το όνομά σου κ.λπ.), γλωσσικά άψογα και εξαιρετικά πειστικά μηνύματα μέσα σε λίγα λεπτά. Μπορεί να τα εξατομικεύσει ανά στόχο, αντλώντας πληροφορίες από τα μέσα κοινωνικής δικτύωσης ή από τις επαγγελματικές πλατφόρμες του θύματος (από το blog του, το facebook, το linkedin κ.λπ.).
Ξέρει πώς σε λένε, πού δουλεύεις, ποια είναι η τράπεζά σου και τελικά μπορεί να γράψει ένα άψογο email στη γλώσσα σου, χωρίς κανένα ορθογραφικό λάθος, που θα σε παρακαλεί ευγενικά να «επιβεβαιώσεις τα στοιχεία σου».
Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 αναφέρει ότι οι εταιρείες ανάπτυξης τεχνητής νοημοσύνης καταγράφουν σε αυξανόμενο βαθμό ότι επιτιθέμενοι χρησιμοποιούν τα συστήματά τους σε κυβερνοεπιχειρήσεις. Ορισμένες παράνομες διαδικτυακές αγορές πωλούν πλέον εύχρηστα εργαλεία τεχνητής νοημοσύνης που μειώνουν δραστικά τις τεχνικές γνώσεις που χρειάζονται για να πραγματοποιήσει κάποιος επίθεση. Πλήρως αυτόνομες κυβερνοεπιθέσεις δεν έχουν ακόμη αναφερθεί, αλλά τα συστήματα τεχνητής νοημοσύνης μπορούν ήδη να εκτελέσουν αυτόνομα πολλά επιμέρους βήματα μιας επίθεσης. Η κατεύθυνση είναι σαφής.
Βιολογικοί και χημικοί κίνδυνοι – Αυτό που κανείς δεν θέλει να ακούσει
Υπάρχει ένας τομέας κινδύνου που δεν την συναντάμε συχνά στη δημόσια συζήτηση γιατί ακούγεται… υπερβολικός. Εμ’ έλα που δεν είναι. Η ανάπτυξη ενός επικίνδυνου παθογόνου ή χημικής ουσίας απαιτεί πολύ εξειδικευμένες γνώσεις, ένα τεράστιο πλήθος πρακτικών λεπτομερειών όπως θερμοκρασία, αντιδραστήρια, σειρά βημάτων, πώς αντιμετωπίζεις αποτυχημένα πειράματα. Παλαιότερα, αυτές οι λεπτομέρειες δεν ήταν εύκολα προσβάσιμες. Τα συστήματα τεχνητής νοημοσύνης μπορούν πλέον να παράγουν εργαστηριακές οδηγίες, να βοηθούν τον κακόβουλο χρήστη να ξεπεράσει πειραματικά προβλήματα, να απαντούν σε τεχνικές ερωτήσεις που παλαιότερα θα απαιτούσαν δεκαετίες σπουδών κ.λπ.. Τα μοντέλα τεχνητής νοημοσύνης υπερτερούν πλέον έναντι του 94% των εμπειρογνωμόνων στην αντιμετώπιση προβλημάτων πρωτοκόλλων εργαστηρίου ιολογίας.
Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 επισημαίνει ότι παραμένει σημαντική αβεβαιότητα ως προς το πόσο αυτές οι ικανότητες αυξάνουν τον πραγματικό κίνδυνο, δεδομένων των πρακτικών εμποδίων στην κατασκευή βιολογικών ή χημικών όπλων. Πρόκειται για τομέα κινδύνου που η επιστημονική κοινότητα δεν αντιμετωπίζει πλέον ως υποθετικό σενάριο.
Ιδιωτικότητα – Ξέρουν τα πάντα για εσένα
Η εκπαίδευση μεγάλων μοντέλων απαιτεί πρόσβαση σε τεράστιους όγκους δεδομένων. Αυτό ωθεί τις εταιρείες σε επεκτατικές πρακτικές συλλογής δεδομένων, συχνά χωρίς ρητή συγκατάθεση των χρηστών και χωρίς διαφάνεια ως προς το τι ακριβώς συλλέγεται και με ποιόν τρόπο χρησιμοποιείται.
Ταυτόχρονα, τα ίδια τα εργαλεία μπορούν να χρησιμοποιηθούν για αυτοματοποιημένη παρακολούθηση, ανάλυση συμπεριφοράς και δημιουργία λεπτομερών προφίλ πολιτών σε κλίμακα που δεν ήταν εφικτή προηγουμένως.
Ο κίνδυνος δεν είναι αφηρημένος. Πολιτεύματα που επιζούν παρακολουθώντας τους πολίτες τους ή κυβερνήσεις που πρέπει να εντοπίζουν πολιτικούς αντιπάλους για να ανατρέψουν εκλογικά προγνωστικά, ήδη αξιοποιούν αυτές τις δυνατότητες. Και δεν χρειάζεται να φανταστεί κανείς εξωτικές αυταρχικές χώρες. Αρκεί να σκεφτεί κανείς τι θα μπορούσε να κάνει ένας φορέας με πρόσβαση σε ένα σύστημα που μπορεί να αναλύσει αυτόματα εκατομμύρια μηνύματα, να εντοπίσει μοτίβα συμπεριφοράς και να δημιουργήσει ένα επαρκές (για τη δουλειά που το θέλει) προφίλ για κάθε πολίτη.
Μήπως θέλεις να αγοράσεις καινούργιο υπολογιστή; – Την πάτησες.
Πάμε σε κάτι πιο πρακτικό.
Από την αλματώδη ανάπτυξη της τεχνητής νοημοσύνης, πέρα από τους κινδύνους ασφάλειας υπάρχει και μια άμεση οικονομική επίπτωση που αγγίζει τον καθένα μας. Τα συστήματα τεχνητής νοημοσύνης για την εκπαίδευση και τη λειτουργία τους απαιτούν τεράστιες (επαναλαμβάνω: τεράστιες) ποσότητες εξειδικευμένου υλικού υπολογιστών, ειδικές κάρτες γραφικών, μνήμες υψηλής ταχύτητας και εξειδικευμένους επεξεργαστές. Οι εταιρείες τεχνητής νοημοσύνης έχουν απορροφήσει την παραγωγή αυτών των εξαρτημάτων με αποτέλεσμα οι τιμές τους να έχουν εκτοξευθεί. Ένα σετ μνήμης υπολογιστή που κόστιζε 70 ευρώ τέλη του 2024 σήμερα κάνει επτά φορές παραπάνω. Τι φταίει ο απλός χρήστης που θέλει απλώς να αντικαταστήσει τον παλιό του υπολογιστή; Χρηματοδοτεί, χωρίς να του ζητηθεί η γνώμη του, έναν κλάδο που δεν έχει αποδείξει ακόμη ότι τα (ανύπαρκτα) κέρδη του δικαιολογούν τις (υπέρογκες) επενδύσεις.
Εργασία – Αυτή τη φορά δεν κινδυνεύουν μόνο τα χέρια
Η αυτοματοποίηση της εργασίας δεν είναι κάτι καινούργιο. Κάθε βιομηχανική επανάσταση αντικατέστησε ορισμένες εργασίες με μηχανές. Αυτό που διαφοροποιεί την τρέχουσα φάση είναι η ταχύτητα, η έκταση και κυρίως ο τύπος εργασίας που απειλείται.
Η τεχνητή νοημοσύνη δεν απειλεί μόνο χειρωνακτικές ή επαναλαμβανόμενες εργασίες. Απειλεί γνωσιακές εργασίες υψηλής εξειδίκευσης: νομική ανάλυση, ιατρική διάγνωση, δημοσιογραφία, λογιστική, δημιουργική παραγωγή περιεχομένου. Αν είσαι δικηγόρος, γιατρός ή λογιστής και σκέφτεσαι ότι «η τεχνητή νοημοσύνη αφορά τα εργοστάσια, όχι εμένα», ξανασκέψου το.
Τα πρώτα στοιχεία υποδηλώνουν μειωμένη ζήτηση σε εργασίες που υποκαθίστανται εύκολα, όπως η συγγραφή κειμένων και η μετάφραση, και αυξημένη ζήτηση σε συμπληρωματικές δεξιότητες. Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 αναφέρει ότι νεότερη έρευνα δεν εντοπίζει ακόμη σημαντικές επιπτώσεις στη συνολική απασχόληση, αλλά επισημαίνει πιθανές επιπτώσεις σε νεότερους εργαζομένους σε τομείς εκτεθειμένους στην τεχνητή νοημοσύνη.
Οι οικονομολόγοι διαφωνούν μόνο ως προς το μέγεθος των επιπτώσεων που έρχονται αλλά η ταχύτητα αυτής της αλλαγής δεν αφήνει αρκετό χρόνο στους εργαζομένους να προσαρμοστούν ενώ τα υφιστάμενα δίχτυα ασφαλείας δεν είναι σχεδιασμένα για τεχνολογική απαξίωση τέτοιας κλίμακας.
YouTube – Η εκτόπιση του ανθρώπου
Ταυτόχρονα, σε πλατφόρμες όπως το YouTube, εκατομμύρια άνθρωποι αναζητούν ειδήσεις, ψυχαγωγία και πληροφόρηση. Εδώ εμφανίζεται ένα φρέσκο πρόβλημα: τα βίντεο τεχνητής νοημοσύνης που παράγονται εντελώς αυτόματα, έχοντας μάθει να ξεγελούν τον αλγόριθμο της πλατφόρμας (δηλαδή το σύστημα που αποφασίζει ποιο περιεχόμενο θα σου προτείνει), εκτοπίζουν τα ανθρώπινα δημιουργήματα. Βίντεο που είναι αποτέλεσμα διαίσθησης, επιστημονικής επάρκειας ή πηγαίου χιούμορ, αντικαθίστανται από ανόητης ποιότητας αυτοματοποιημένο υλικό. Ο δημιουργός που αφιερώνει ώρες για να κάνει κάτι αξιόλογο ανταγωνίζεται μια μηχανή που παράγει δέκα βίντεο στο χρόνο που εκείνος θα κάνει ένα. Και ο αλγόριθμος, που δεν ξεχωρίζει ποιότητα από ποσότητα, τα βαθμολογεί εξίσου.
Μακροπρόθεσμοι κίνδυνοι – δεν είναι επιστημονική φαντασία
Σε πιο μακροπρόθεσμο ορίζοντα, η επιστημονική κοινότητα εξετάζει κινδύνους που ακούγονται σαν σενάριο ταινίας αλλά αντιμετωπίζονται ολοένα και πιο σοβαρά.
Ο πρώτος αφορά τα λεγόμενα σενάρια «απώλειας ελέγχου». Τι σημαίνει αυτό; Δεν πρόκειται για σενάριο με «κακόβουλο ρομπότ» που αποφασίζει να εξοντώσει την ανθρωπότητα. Πρόκειται για κάτι πολύ πιο πεζό και γι’ αυτό πιο ύπουλο. Ένα σύστημα που βελτιστοποιεί ένα συγκεκριμένο στόχο, αν διαθέτει επαρκή αυτονομία, μπορεί να αναπτύξει στρατηγικές επίτευξής του που δεν προβλέφθηκαν από τους κατασκευαστές του και που εμπεριέχουν αρνητικές συνέπειες για τους ανθρώπους. Όχι από κακία, αλλά από αδιαφορία ως προς αυτές. Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 αναφέρει ότι τα τρέχοντα συστήματα δεν διαθέτουν ακόμη επαρκείς ικανότητες για να θέτουν τέτοιους κινδύνους, αλλά βελτιώνονται σε σχετικούς τομείς. Η εργασία «Concrete Problems in AI Safety» των Amodei et al. (2016) αποτελεί σημείο αναφοράς στη σχετική βιβλιογραφία, και η Έκθεση επιβεβαιώνει ότι αυτοί οι κίνδυνοι αξιολογούνται πλέον από εκατοντάδες ανεξάρτητους επιστήμονες ως αντικείμενο σοβαρής έρευνας.
Ο δεύτερος κίνδυνος είναι πιο άμεσος και συγκεκριμένος. Είναι η ανάπτυξη LAWS. Στρατιωτικές μηχανές ή ρομπότ (οπλικά συστήματα) ικανά να εντοπίσουν, να στοχεύσουν και να εξουδετερώσουν ένα άτομο ή μια ομάδα ανθρώπων χωρίς να απαιτείται η εντολή ενός τρίτου (ανθρώπου).
Η απόφαση λήψης ακύρωσης ανθρώπινης ζωής μεταφέρεται από άνθρωπο σε αλγόριθμο. Η τεχνολογία αυτή βρίσκεται ήδη σε φάση ανάπτυξης σε πολλές χώρες και η απουσία διεθνούς ρυθμιστικού πλαισίου αποτελεί κενό με απρόβλεπτες συνέπειες.
Η οικονομία της φούσκας
Το ερώτημα δεν είναι αν πρόκειται για φούσκα. Είναι φούσκα. Το ερώτημα είναι πότε θα σπάσει. Και με ποιο κόστος.
Ο κλάδος της τεχνητής νοημοσύνης στηρίζεται σε μεγάλο βαθμό σε συνεχή εισροή επενδυτικών κεφαλαίων, πολλά από τα οποία βασίζονται σε προσδοκίες κερδοφορίας που δεν έχουν ακόμη επαληθευτεί. Κέρδη; Ποια κέρδη; Το οικοδόμημα στηρίζεται στη μόνιμη εισροή κεφαλαίων. Τα σημάδια ήδη υπάρχουν. Η ακύρωση μεγάλων επενδύσεων σε υποδομές κέντρων δεδομένων (Data Centers) από κολοσσούς που μέχρι πρότινος ανακοίνωναν επενδύσεις δισεκατομμυρίων δείχνει ότι οι επενδυτές αρχίζουν να αντιμετωπίζουν την αβεβαιότητα με μεγαλύτερη σοβαρότητα. Σε πολλές πλατφόρμες τεχνητής νοημοσύνης, οι επενδυτές άρχισαν ήδη να γκρινιάζουν και να ζητούν μερίδιο από τα κέρδη. Τα οποία απλά δεν υπάρχουν. Όταν η εισροή κεφαλαίων επιβραδυνθεί, η συμπίεση που θα ακολουθήσει θα επηρεάσει ολόκληρο τον κλάδο, πολύ πέρα από τις εταιρείες τεχνητής νοημοσύνης.
Το ρυθμιστικό κενό
Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026, η οποία δεν κάνει πολιτικές συστάσεις αλλά συνθέτει επιστημονικά στοιχεία για να παρέχει βάση τεκμηρίωσης σε αυτούς που αποφασίζουν, καταλήγει σε ένα σαφές συμπέρασμα: τα παγκόσμια πλαίσια διαχείρισης κινδύνου παραμένουν ανώριμα, με περιορισμένους ποσοτικούς δείκτες αναφοράς και σημαντικά κενά στοιχείων. Ο αριθμός εταιρειών που δημοσιεύουν πλαίσια ασφάλειας για τα συστήματά τους έχει υπερδιπλασιαστεί σε σχέση με το 2025, αλλά η Έκθεση σημειώνει ότι η αποτελεσματικότητα πολλών μέτρων ασφαλείας στην πραγματική χρήση παραμένει αβέβαιη. Τα προγράμματα ψηφιακής παιδείας αναπτύσσονται, αλλά παραμένουν μεγάλα κενά ως προς την αποτελεσματικότητά τους. Με δυο λόγια: γράφουμε κανόνες, αλλά δεν ξέρουμε ακόμη αν δουλεύουν.
Δυό τρία συμπεράσματα
Το πρόβλημα δεν είναι η τεχνολογία καθεαυτή. Η τεχνητή νοημοσύνη μπορεί να αυτοματοποιήσει επαναλαμβανόμενες εργασίες, μπορεί να βοηθήσει τον ειδικό να σκεφτεί πληρέστερα, μπορεί να αποτελέσει χρήσιμο εργαλείο. Αυτές οι εφαρμογές δεν αμφισβητούνται.
Το πρόβλημα είναι η αδιάκριτη εφαρμογή της σε κάθε πτυχή της ψηφιακής ζωής, χωρίς διάκριση ανάμεσα σε χρήσεις που αξίζουν και χρήσεις που ζημιώνουν. Χωρίς ρυθμιστικό πλαίσιο. Χωρίς λογοδοσία. Χωρίς διαφάνεια. Ένας κλάδος που υπόσχεται τεχνολογική πρόοδο ενώ ταυτόχρονα υποβαθμίζει την αξιοπιστία της πληροφόρησης, αποδυναμώνει την κριτική σκέψη μέσω της γνωστικής αποφόρτισης (δηλαδή, τη συνήθεια του ανθρώπου να πάψει να σκέφτεται μόνος του γιατί «η μηχανή μου τα λέει»), διευρύνει τις ανισότητες και μεταφέρει κοινωνικό κόστος στους πιο ευάλωτους, δεν αποτελεί πρόοδο. Αποτελεί αναδιανομή βλάβης.
Ο βαθμός στον οποίο ο δημόσιος διάλογος αντιλαμβάνεται αυτή τη διάκριση θα καθορίσει σε μεγάλο βαθμό πώς θα διαχειριστεί η κοινωνία τις επιπτώσεις. Η Διεθνής Έκθεση Ασφάλειας ΤΝ 2026 δεν λέει στις κυβερνήσεις τι να κάνουν, αλλά τα στοιχεία που παρουσιάζει είναι αρκετά σαφή ώστε το επόμενο βήμα να ανήκει στους υπεύθυνους πολιτικής και τους ηγέτες του κλάδου. Το παράθυρο για να προλάβει κανείς αυτούς τους κινδύνους γίνεται ολοένα και πιο μικρό.
Κώστας Κουρούνης
Αθήνα, Άνοιξη 2026
(https://makiavelis.gr/to-ai-kai-i-apodomisi-tou-internet/)
—
Λάβετε ενεργά μέρος στην καθημερινή ενημέρωση του https://www.aparaskevi-images.gr/, στέλνοντας φωτογραφίες, video, ή ένα μήνυμα στο info@aparaskevi-images.gr Ή μπείτε στην σελίδα μας στο Facebook ή στο X(Twitter).
Απαγορεύεται καθ’ οιονδήποτε τρόπο η χρήση ή η αναπαραγωγή των άρθρων και των φωτογραφιών της ιστοσελίδας aparaskevi-images.gr, σε οποιοδήποτε μέσο χωρίς να αναγράφεται η πηγή προέλευσης. Η χρήση και η αναπαραγωγή αυτών για εμπορικούς σκοπούς απαιτεί την έγγραφη άδεια του ιδιοκτήτη και κατόχου των αντιστοίχων δικαιωμάτων.