Δεν ζούμε απλώς μια τεχνολογική μετάβαση. Ζούμε μια ιστορική μεταφορά εξουσίας. Η Τεχνητή Νοημοσύνη δεν μπαίνει πια μόνο στα εργαλεία μας. Μπαίνει στη σκέψη μας, στις αποφάσεις μας, στην εργασία μας, στη διοίκηση, στην αξιολόγηση, στην πληροφορία, στην καθημερινή λογική με την οποία οργανώνεται ο κόσμος. Και όσο περισσότερο παρουσιάζεται ως ουδέτερη πρόοδος, τόσο πιο επικίνδυνη γίνεται.
Για χρόνια, η Τεχνητή Νοημοσύνη παρουσιαζόταν σαν υπόσχεση. Σαν κάτι εντυπωσιακό, καινούργιο, ίσως χρήσιμο, ίσως μακρινό. Σήμερα δεν είναι τίποτε από αυτά με την παλιά έννοια. Δεν είναι υπόσχεση. Είναι εγκατάσταση. Δεν είναι πιθανότητα. Είναι παρόν. Δεν είναι απλώς τεχνολογική βοήθεια. Είναι ήδη μηχανισμός αναδιάταξης ισχύος μέσα στην κοινωνία.
Το μεγάλο πρόβλημα είναι ότι αυτή η μεταβολή δεν γίνεται με θόρυβο. Δεν συνοδεύεται πάντα από πολιτικές διακηρύξεις, από φανερές απαγορεύσεις ή από ορατές συγκρούσεις. Γίνεται ήσυχα. Με εφαρμογές. Με πλατφόρμες. Με «έξυπνα» συστήματα. Με αυτοματοποιήσεις. Με προτάσεις. Με αξιολογήσεις. Με προβλέψεις. Με ψηφιακές ευκολίες που σταδιακά μετατρέπονται σε νέα κανονικότητα.
Και κάπου εκεί βρίσκεται ο πυρήνας της απειλής. Όχι στο ότι η μηχανή θα αποκτήσει ανθρώπινη ψυχή. Αλλά στο ότι ο άνθρωπος κινδυνεύει να αποδεχθεί έναν όλο και πιο μηχανικό τρόπο ύπαρξης. Να συνηθίσει να σκέφτεται λιγότερο, να εμπιστεύεται περισσότερο το σύστημα, να ελέγχει λιγότερο, να αμφιβάλλει λιγότερο, να αναλαμβάνει λιγότερη ευθύνη. Να μετατρέψει σταδιακά την ίδια του την κρίση σε παράρτημα αλγοριθμικών εισηγήσεων.
Αυτό δεν είναι τεχνική λεπτομέρεια. Είναι ζήτημα πολιτισμού. Είναι ζήτημα δημοκρατίας. Είναι ζήτημα ανθρώπινου μέτρου. Γιατί όταν η μηχανή αρχίζει να αποκτά όλο και μεγαλύτερο ρόλο στο ποιος επιλέγεται, ποιος απορρίπτεται, ποιος θεωρείται κατάλληλος, ποιος αξιολογείται, ποιος προωθείται, ποιος «προβλέπεται», τότε δεν αλλάζει απλώς η τεχνολογία. Αλλάζει η αρχιτεκτονική της ίδιας της κοινωνικής ισχύος.
Δεν είναι εξέλιξη λογισμικού. Είναι αλλαγή καθεστώτος
Αυτό που συμβαίνει δεν πρέπει να περιγράφεται με αφελείς όρους τεχνολογικής προόδου. Δεν έχουμε απλώς καλύτερα προγράμματα. Έχουμε ένα νέο υπόδειγμα οργάνωσης του πραγματικού.
Η Τεχνητή Νοημοσύνη δεν περιορίζεται στο να εκτελεί εντολές. Ταξινομεί. Ιεραρχεί. Επιλέγει. Υποδεικνύει. Επηρεάζει. Προτείνει αυτό που εμφανίζεται ως πιθανότερο, αποδοτικότερο, ασφαλέστερο, καταλληλότερο. Με άλλα λόγια, δεν μένει στην περιφέρεια της πράξης. Προχωρά στον πυρήνα της κρίσης.
Εκεί ακριβώς πρέπει να σταματήσει η αφέλεια. Γιατί όποιος ελέγχει τα δεδομένα, τα πρότυπα, τα μοντέλα και τις πλατφόρμες, δεν ελέγχει μόνο τεχνικές διαδικασίες. Ελέγχει όλο και περισσότερο τους τρόπους με τους οποίους οι κοινωνίες ερμηνεύουν τον κόσμο και παίρνουν αποφάσεις μέσα σε αυτόν.
Η νέα εξουσία δεν φορά πάντα στολή. Δεν μιλά πάντα από έδρανο. Δεν κρατά πάντα σφραγίδα. Μπορεί να έρχεται με τη μορφή μιας αυτόματης πρότασης, μιας αλγοριθμικής κατάταξης, ενός ψηφιακού score, μιας «έξυπνης» προτεραιοποίησης, μιας φαινομενικά ουδέτερης μηχανικής σύστασης. Αυτή είναι η νέα ισχύς. Και ακριβώς επειδή δεν φωνάζει, διεισδύει ευκολότερα.
Η πιο επικίνδυνη λέξη της εποχής είναι η λέξη «έξυπνο»
Σχεδόν τα πάντα σήμερα βαφτίζονται «έξυπνα». Έξυπνα συστήματα. Έξυπνες πόλεις. Έξυπνες υπηρεσίες. Έξυπνη διαχείριση. Έξυπνη αναζήτηση. Έξυπνη αυτοματοποίηση. Όμως πίσω από αυτή τη λέξη κρύβεται μια τεράστια παρανόηση.
Η μηχανή δεν είναι «έξυπνη» με την ανθρώπινη έννοια. Δεν έχει επίγνωση. Δεν έχει εμπειρία. Δεν έχει βίωμα. Δεν ξέρει τι σημαίνει απώλεια, αδικία, τραύμα, ευθύνη, αξιοπρέπεια, έλεος, ιστορική μνήμη, υπαρξιακή αγωνία. Δεν καταλαβαίνει αυτό που λέει. Παράγει αποτελέσματα με βάση δομές συσχέτισης, πιθανότητας και εκπαίδευσης. Αυτό είναι εντυπωσιακό τεχνικά. Αλλά δεν είναι ανθρώπινη κατανόηση.
Το πρόβλημα αρχίζει όταν η κοινωνία θαμπώνεται από την επιφάνεια του αποτελέσματος. Όταν η πειστική προσομοίωση περνά για κανονική σκέψη. Όταν η ταχύτητα περνά για σοφία. Όταν η γλωσσική επάρκεια περνά για συνείδηση. Όταν η σύνθεση περιεχομένου περνά για νόηση.
Από εκεί και πέρα, η πτώση είναι γρήγορη. Γιατί αν αρχίσουμε να πιστεύουμε ότι η σκέψη είναι απλώς επιτυχημένη επεξεργασία δεδομένων, τότε δεν υποτιμούμε μόνο τον άνθρωπο. Αδειάζουμε από περιεχόμενο την ίδια την έννοια της ανθρώπινης πνευματικής ζωής.
Η μηχανή δεν αναλαμβάνει ευθύνη. Ο άνθρωπος όμως αρχίζει να αποφεύγει τη δική του
Εδώ βρίσκεται ίσως ο πιο επικίνδυνος κόμβος ολόκληρης της υπόθεσης. Η Τεχνητή Νοημοσύνη δεν έχει ηθική ευθύνη. Δεν έχει ενοχή. Δεν έχει συνείδηση των συνεπειών της. Δεν απολογείται. Δεν σηκώνει το βάρος μιας άδικης απόφασης. Δεν νιώθει τίποτε μπροστά στον άνθρωπο που αποκλείστηκε, αδικήθηκε, στιγματίστηκε ή καταστράφηκε από μια λανθασμένη πρόβλεψη.
Κι όμως, όσο τα συστήματα αυτά μπαίνουν όλο και πιο βαθιά στη λήψη αποφάσεων, τόσο περισσότερο οι άνθρωποι βρίσκουν σε αυτά το τέλειο καταφύγιο για να απομακρυνθούν από τη δική τους ευθύνη.
«Το σύστημα έτσι έβγαλε.»
«Ο αλγόριθμος αυτό έδειξε.»
«Η πρόβλεψη αυτό πρότεινε.»
«Η αξιολόγηση αυτό κατέγραψε.»
Να η νέα μορφή ανευθυνότητας. Όχι πια η ωμή αυθαιρεσία, αλλά η τεχνικά καλυμμένη αποποίηση ευθύνης. Όχι πια το «εγώ το αποφάσισα», αλλά το «έτσι προέκυψε από το μοντέλο».
Αυτό είναι βαθιά επικίνδυνο. Γιατί η κοινωνία δεν παραδίδει απλώς λειτουργίες. Παραδίδει σταδιακά το πιο βαρύ φορτίο της ανθρώπινης ιδιότητας: την ηθική λογοδοσία.
Η αλγοριθμική «αντικειμενικότητα» είναι συχνά καμουφλαρισμένη προκατάληψη
Ένα από τα μεγαλύτερα ψέματα που συνοδεύουν τη νέα τεχνολογική λατρεία είναι ότι οι αλγόριθμοι είναι αντικειμενικοί. Ότι, δήθεν, επειδή δεν είναι άνθρωποι, δεν έχουν προκαταλήψεις. Ότι επειδή επεξεργάζονται δεδομένα, καταλήγουν σε καθαρότερες και δικαιότερες κρίσεις.
Η αλήθεια είναι πολύ πιο σκληρή.
Τα συστήματα αυτά εκπαιδεύονται πάνω σε ανθρώπινα δεδομένα. Και τα ανθρώπινα δεδομένα κουβαλούν όλη την ακαθαρσία των κοινωνιών που τα παράγουν. Ανισότητες. Αποκλεισμούς. Ιδεολογίες. Στερεότυπα. Γλωσσικές στρεβλώσεις. Ιστορικές ιεραρχήσεις. Κοινωνικές σκιές. Η μηχανή δεν πέφτει από τον ουρανό. Μαθαίνει από τον κόσμο. Και ο κόσμος μόνο αθώος δεν είναι.
Αλλά υπάρχει και κάτι ακόμη σοβαρότερο. Πίσω από κάθε μοντέλο υπάρχουν επιλογές. Επιλογές για το τι μετριέται. Για το τι θεωρείται επιτυχία. Για το τι θεωρείται αποτυχία. Για το ποιο ρίσκο είναι αποδεκτό. Για το ποια παράμετρος έχει μεγαλύτερη βαρύτητα. Αυτές οι επιλογές δεν είναι μηχανικές. Είναι ανθρώπινες. Και άρα πολιτικές, κοινωνικές, ηθικές.
Όταν λοιπόν ένα σύστημα εμφανίζεται ως καθαρή μηχανή αλήθειας, ο πολίτης οφείλει να υποψιάζεται αμέσως ότι πίσω από την τεχνική επιφάνεια κρύβονται πολύ συγκεκριμένες ανθρώπινες αποφάσεις. Και πολύ συχνά, πολύ συγκεκριμένα συμφέροντα.
Η γνώση κινδυνεύει να καταντήσει αποθήκη απαντήσεων
Ζούμε σε μια εποχή που λατρεύει την ταχύτητα. Θέλει άμεσα αποτελέσματα. Άμεσες λύσεις. Άμεσες απαντήσεις. Άμεση παραγωγή κειμένου, εικόνας, πληροφορίας, σχεδίου, πρόβλεψης. Η Τεχνητή Νοημοσύνη έρχεται ακριβώς να τροφοδοτήσει αυτή την ορμή.
Όμως εδώ υπάρχει ένας βαθύς κίνδυνος. Να μάθουμε να συγχέουμε την απάντηση με την κατανόηση.
Η γνώση δεν είναι απλώς πρόσβαση σε περιεχόμενο. Δεν είναι απλώς δυνατότητα ανάκτησης πληροφορίας. Δεν είναι απλώς συνδυασμός στοιχείων. Η πραγματική γνώση έχει βάθος, αμφιβολία, κρίση, ερμηνεία, κόπο, αντίσταση, εσωτερική ωρίμανση. Η σοφία δεν παράγεται κατά παραγγελία.
Αν λοιπόν οι κοινωνίες συνηθίσουν στην αδιάκοπη παροχή έτοιμων απαντήσεων, υπάρχει ο κίνδυνος να αποδυναμωθεί ακριβώς εκείνη η εσωτερική πνευματική διαδικασία που γεννά ώριμους ανθρώπους. Μπορεί να κερδίσουμε χρόνο. Μπορεί να κερδίσουμε όγκο. Μπορεί να κερδίσουμε ταχύτητα. Αλλά ταυτόχρονα μπορεί να χάνουμε βάθος.
Και μια κοινωνία με περισσότερες απαντήσεις αλλά λιγότερη σκέψη δεν είναι πιο ώριμη κοινωνία. Είναι πιο ευάλωτη.
Η εργασία δεν απειλείται μόνο ως απασχόληση, αλλά ως ανθρώπινο νόημα
Η συζήτηση για την εργασία γίνεται συχνά λογιστικά. Πόσες θέσεις θα χαθούν. Πόσες θα μετασχηματιστούν. Πόσοι κλάδοι θα επηρεαστούν. Πόσες λειτουργίες θα αυτοματοποιηθούν. Όλα αυτά είναι σημαντικά. Αλλά δεν είναι όλη η εικόνα.
Η πιο μεγάλη απειλή είναι ότι αλλάζει το κριτήριο με το οποίο θα αξιολογείται η ίδια η ανθρώπινη εργασία.
Αν η εποχή της Τεχνητής Νοημοσύνης εγκαθιδρύσει ως υπέρτατη αξία μόνο την ταχύτητα, την τυποποίηση, τη μετρησιμότητα και τη συνεχή βελτιστοποίηση, τότε ο άνθρωπος θα πιεστεί να μοιάσει όλο και περισσότερο στη μηχανή για να θεωρείται χρήσιμος.
Αλλά ο άνθρωπος δεν είναι μόνο παραγωγική μονάδα. Η εργασία του περιλαμβάνει φροντίδα, διαίσθηση, παρουσία, σχέσεις, δημιουργική εκτροπή, εμπειρική γνώση, συμπόνια, κρίση σε αστάθμητες συνθήκες, ευθύνη απέναντι στον άλλο. Αυτά δεν αποτιμώνται πάντα εύκολα. Δεν ποσοτικοποιούνται πάντα με ακρίβεια. Αλλά είναι τα πιο ανθρώπινα κομμάτια κάθε ζωντανής εργασίας.
Αν αυτά αρχίσουν να υποβαθμίζονται επειδή δεν εξυπηρετούν αρκετά τα μοντέλα αποδοτικότητας, τότε δεν θα μιλάμε απλώς για μετασχηματισμό της αγοράς. Θα μιλάμε για υποβάθμιση του ανθρώπου μέσα στην εργασία.
Η πιο μεγάλη μάχη δεν θα δοθεί στην τεχνολογία αλλά στη συνείδηση της κοινωνίας
Το κρίσιμο ερώτημα δεν είναι αν η Τεχνητή Νοημοσύνη θα προχωρήσει. Θα προχωρήσει. Το ερώτημα είναι υπό ποιους όρους, με ποια όρια, με ποιο θεσμικό αντίβαρο, με ποια κοινωνική παιδεία, με ποια φιλοσοφική εγρήγορση.
Γιατί το ζήτημα δεν είναι μόνο τεχνικό. Είναι βαθιά πολιτισμικό.
Η Τεχνητή Νοημοσύνη επαναφέρει βίαια τα μεγάλα ερωτήματα που οι σύγχρονες κοινωνίες συχνά έσπρωχναν στο περιθώριο. Τι είναι σκέψη; Τι είναι κρίση; Τι είναι γνώση; Τι είναι ελευθερία; Τι είναι ευθύνη; Τι είναι άνθρωπος; Ποιο μέρος της ζωής μπορεί να ανατεθεί σε μηχανές και ποιο όχι; Ποιο όριο δεν πρέπει να περάσει ποτέ καμία τεχνολογία, مهما εντυπωσιακή κι αν είναι;
Αν αυτά τα ερωτήματα αφεθούν μόνο στους τεχνικούς, στους επενδυτές, στους διαφημιστές της καινοτομίας ή στους διαχειριστές πλατφορμών, τότε το αποτέλεσμα θα είναι προδιαγεγραμμένο. Η κοινωνία θα ξυπνήσει μια μέρα μέσα σε έναν κόσμο ήδη οργανωμένο από μηχανισμούς που δεν επέλεξε δημοκρατικά και που δεν έμαθε ποτέ να αμφισβητεί.
Η Τεχνητή Νοημοσύνη είναι το πιο ισχυρό τεχνολογικό εργαλείο της εποχής μας. Αλλά ακριβώς γι’ αυτό δεν πρέπει να αντιμετωπίζεται με αφέλεια, θαυμασμό ή μοιρολατρική υποταγή. Όσο πιο ισχυρή γίνεται, τόσο πιο μεγάλη πρέπει να γίνεται η απαίτηση για όρια, διαφάνεια, ανθρώπινη κρίση, θεσμική λογοδοσία και φιλοσοφική καθαρότητα.
Η μεγάλη απειλή δεν είναι ότι οι μηχανές θα γίνουν άνθρωποι. Η μεγάλη απειλή είναι ότι οι άνθρωποι θα συνηθίσουν να λειτουργούν σαν παθητικοί χρήστες ενός κόσμου που θα τους προτείνει, θα τους κατευθύνει, θα τους ταξινομεί και θα τους αξιολογεί όλο και περισσότερο από τα παρασκήνια.
Και τότε η απώλεια δεν θα είναι μόνο επαγγελματική ή τεχνολογική. Θα είναι υπαρξιακή. Θα είναι πολιτική. Θα είναι πολιτισμική.
Γιατί στο τέλος, η πιο σοβαρή ερώτηση δεν θα είναι πόσο εξελίχθηκαν τα συστήματα που φτιάξαμε. Η πιο σοβαρή ερώτηση θα είναι αν, μέσα στην εκρηκτική άνοδο της μηχανής, ο άνθρωπος διατήρησε το δικαίωμα να παραμένει κρίνον ον, ηθικό ον, υπεύθυνο ον, ελεύθερο ον.
Και αυτή είναι η σύγκρουση που μόλις αρχίζει.
Discover more from Scripta manent
Subscribe to get the latest posts sent to your email.