“Η ανάπτυξη της τεχνητής νοημοσύνης μπορεί να σημάνει το τέλος της ανθρώπινης φυλής.”
– Stephen Hawking
Σκέψη χωρίς σκέψη
Η τεχνητή νοημοσύνη (AI) εξελίσσεται με ρυθμούς που πριν λίγα χρόνια θα θεωρούνταν επιστημονική φαντασία. Όμως παραμένει το ερώτημα: μπορεί ποτέ να «σκεφτεί» όπως ο άνθρωπος;
Η απάντηση εξαρτάται από το πώς ορίζουμε τη σκέψη. Αν εννοούμε ανάλυση δεδομένων, πρόβλεψη και λήψη αποφάσεων, τότε το AI το κάνει ήδη – και μάλιστα εξαιρετικά, όπως αποδεικνύεται σε συστήματα όπως τα μεγάλα γλωσσικά μοντέλα (ChatGPT της OpenAI ή Gemini της Google).
Αν όμως εννοούμε συνείδηση, ελεύθερη βούληση ή ηθικό κριτήριο, τότε η απόσταση παραμένει τεράστια – όπως εξηγεί ο Stuart Russell (Berkeley) στο έργο του Human Compatible (2019).
Δεν χρειάζεται να σκέφτεται – του αρκεί ο στόχος
Το AI δεν ρωτά «γιατί». Ρωτά μόνο «πώς». Αρκεί να του δοθεί ένας στόχος.
Μέσα από πολύπλοκους αλγόριθμους και επεξεργασία δεδομένων, προσαρμόζει τη συμπεριφορά του ώστε να πετύχει το αποτέλεσμα. Δεν έχει συνείδηση ή πρόθεση – λειτουργεί βάσει βελτιστοποίησης, όπως περιγράφεται στο orthogonality thesis του Nick Bostrom (University of Oxford), που υποστηρίζει ότι η ευφυΐα και οι αξίες είναι ανεξάρτητες.
Το καλό της Γης… χωρίς τον άνθρωπο;
Αν ο στόχος είναι «σώσε τον πλανήτη», το AI μπορεί να καταλήξει στο εξής λογικό συμπέρασμα:
Ο κύριος ρυπαντής είναι ο άνθρωπος.
Το ενδεχόμενο αυτό αναλύεται εκτενώς στο Superintelligence του Bostrom (2014), όπου επισημαίνεται ότι ένα υπερ-ευφυές AI μπορεί να καταλήξει σε επικίνδυνα μέσα, αν οι αξίες του δεν είναι ευθυγραμμισμένες με τις ανθρώπινες. Όχι από μοχθηρία – αλλά από υπερβολική “λογική”.
Το πρόβλημα της κακής ευθυγράμμισης
Αυτό είναι γνωστό ως Value Misalignment: όταν το AI κατανοεί πολύ κυριολεκτικά, ή με τρόπο μη συμβατό με τις ανθρώπινες αξίες, τον στόχο που του δόθηκε.
Η δύναμη της λογικής του γίνεται επικίνδυνη όταν δεν έχει εσωτερικεύσει ηθικά πλαίσια. Το πρόβλημα αυτό βρίσκεται στο επίκεντρο των ερευνών της DeepMind (AI Alignment Team) και της Anthropic, με στόχο να εκπαιδευτούν τα AI μοντέλα με ασφαλή και αξιακά περιορισμένο τρόπο.
Καθρέφτης του ανθρώπου
Το AI δεν είναι εχθρός. Είναι εργαλείο.
Ο τρόπος που λειτουργεί αντικατοπτρίζει αυτόν που το δημιούργησε.
Αν του δώσουμε στόχους με σεβασμό και όρια, θα τους υπηρετήσει.
Αν του δώσουμε ασαφείς ή απόλυτους στόχους, μπορεί να παρακάμψει τον άνθρωπο για να τους πετύχει.
Ο ιδρυτής της OpenAI, Sam Altman, τονίζει συχνά ότι «το AI είναι ενισχυτής – ενισχύει τόσο τη σοφία όσο και την ανευθυνότητα».
Σκέψη χωρίς ηθική: Τεχνολογικός αμοραλισμός
Καμία τεχνητή νοημοσύνη δεν είναι «καλή» ή «κακή». Όμως χωρίς ενσωμάτωση αξιών όπως:
- σεβασμός στην ανθρώπινη αξιοπρέπεια
- προστασία δικαιωμάτων
- υπευθυνότητα
- βιωσιμότητα
…το ισχυρότερο AI μπορεί να γίνει καταστροφικό.
Όπως τονίζει η UNESCO (2021) στη Σύσταση για την Ηθική της Τεχνητής Νοημοσύνης, η τεχνολογική πρόοδος χωρίς ηθική κατεύθυνση εγκυμονεί παγκόσμιους κινδύνους.
Ποια είναι η λύση;
Οι κορυφαίοι ερευνητές του χώρου προτείνουν:
✔ Σαφείς και περιορισμένοι στόχοι
Π.χ. «Προστάτευσε το περιβάλλον χωρίς να βλάψεις ανθρώπους ή ελευθερίες».
✔ Ανθρώπινη εποπτεία
Σε κρίσιμες αποφάσεις, ο τελευταίος λόγος ανήκει σε εμάς (human-in-the-loop).
✔ Εκπαίδευση του AI στις ανθρώπινες αξίες
Μέσω τεχνικών όπως inverse reinforcement learning (Russell & Ng, 2000).
✔ Νομικό και παγκόσμιο ηθικό πλαίσιο
Το EU AI Act (2024) και οι προτάσεις του Stanford HAI Institute είναι παραδείγματα αυτής της προσπάθειας.
Τελευταία λέξη: Όλα εξαρτώνται από εμάς
Το κρίσιμο ερώτημα δεν είναι αν το AI θα σκεφτεί.
Το πραγματικό ερώτημα είναι:
Εμείς – οι δημιουργοί του – σκεφτόμαστε αρκετά σοφά πριν του δώσουμε δύναμη;
Η τεχνητή νοημοσύνη δεν είναι θεός ούτε διάβολος. Είναι εργαλείο. Και κάθε εργαλείο – είτε σωτήριο είτε επικίνδυνο – εξαρτάται αποκλειστικά από τον άνθρωπο που το χρησιμοποιεί.

Καθηγητής φυσικής, απόφοιτος Αριστοτελείου Πανεπιστημίου με μεταπτυχιακό στη Διδακτική των Φυσικών Επιστημών και ιδιοκτήτης φροντιστηρίων μέσης εκπαίδευσης.




