Θεοφάνης Τάσης: Κοιτάζοντας τη Σφίγγα στα μάτια: Τεχνητή νοημοσύνη και ανθρώπινες αξίες

Print Friendly, PDF & Email
- Advertisement -
Ζωγραφική: Φραγκίσκος Δουκάκης

Θεοφάνης Τάσης

ὦ δύσποτμ’, εἴθε μήποτε γνοίης ὃς εἶ.
Σοφοκλής, Οιδίπους Τύραννος

Βρισκόμαστε σε ένα σταυροδρόμι. Η ταχύτατη πλέον εξέλιξη της τεχνητής νοημοσύνης επιφέρει μια ριζική αλλαγή στην ανθρώπινη ιστορία, για την οποία ο διευθύνων σύμβουλος της Google, Sundar Pichai, δήλωσε πως θα αποδειχθεί σημαντικότερη από την ανακάλυψη της φωτιάς, ενώ ο διευθύνων σύμβουλος της OpenAI, Sam Altman εξομολογήθηκε πως θα ήταν τρελό να μη φοβόμαστε τις συνέπειές της[1]. Ως εκ τούτου είναι απολύτως αναγκαία μια δημόσια διαβούλευση ως προς το αν τα οφέλη από την παρούσα ανάπτυξη της τεχνητής νοημοσύνης υπερβαίνουν τόσο τους άμεσους όσο επίσης τους μακροπρόθεσμους κινδύνους. Η τελική απόφαση για την κατεύθυνση που θα επιλέξουμε ως κοινωνία οφείλει να είναι πολιτική και δεν πρέπει να ληφθεί από τις ίδιες τις εταιρείες πληροφορικής, ιδίως όταν αυτές επιθυμούν διακαώς τη νομοθετική ρύθμιση στην ανάπτυξη της τεχνητής νοημοσύνης. Εντούτοις τόσο η Microsoft, η οποία χρηματοδοτεί την OpenAI, όσο και η Google ενσωμάτωσαν προσφάτως την τεχνητή νοημοσύνη που ανέπτυξαν στις μηχανές αναζήτησής τους, καθιστώντας τις προσβάσιμες σε όλους, παρά τις ενστάσεις και προειδοποιήσεις πολλών συνεργατών τους, προγραμματιστών και φιλοσόφων για τους πιθανούς κινδύνους[2]. Η πρωτοφανής επιτυχία του ChatGPT της Open AI και ο φόβος της Google για την τυχόν απώλεια της πρωτοκαθεδρίας της εγκαινίασαν έναν αγώνα ταχύτητας με σκοπό την επίτευξη μιας ισχυρής τεχνητής νοημοσύνης, δηλαδή μιας νοημοσύνης ισάξιας της ανθρώπινης, ικανής να δρα εξίσου ή περισσότερο επιτυχημένα. Σε αυτό τον αδυσώπητο αγώνα, η ασφαλής χρήση της τεχνητής νοημοσύνης παραμένει ένα καίριο ζητούμενο καθώς οι αναγκαίοι μηχανισμοί ελέγχου υπολείπονται των ικανοτήτων της και, επιπλέον, φαίνεται να θυσιάζονται στον βωμό του οικονομικού κέρδους. Ωστόσο η διαρκής βελτίωση της τεχνητής νοημοσύνης δίχως την προηγούμενη ή έστω την παράλληλη δημιουργία αποτελεσματικών μηχανισμών ελέγχου μοιάζει με την επιθυμία να κατασκευάσουμε έναν πυρηνικό αντιδραστήρα δίχως να γνωρίζουμε πώς να ελέγξουμε την αλυσιδωτή αντίδραση, με την ελπίδα πως θα τα καταφέρουμε αφού τον φτιάξουμε. Αλλά η δημιουργία αποτελεσματικών μηχανισμών ελέγχου είναι ένα προκλητικά δύσκολο εγχείρημα επειδή, ανάμεσα σε άλλα, η εσωτερική λειτουργία της τεχνητής νοημοσύνης παραμένει εν πολλοίς αδιαφανής στους ίδιους τους δημιουργούς της.

Ως γνωστόν, προγνωστικά γλωσσικά μοντέλα αλγορίθμων όπως το GPT-4 της OpenAI ή το Bard της Google είναι νευρωνικά δίκτυα που παράγουν κείμενα χρησιμοποιώντας τη στατιστική, δηλαδή αναλύοντας έναν τεράστιο όγκο δεδομένων και σχεδιάζοντας ένα είδος μαθηματικού χάρτη της γλώσσας, στον οποίο εφαρμόζουν συναρτήσεις πιθανότητας για να προβλέψουν τον κατάλληλο συνδυασμό λέξεων. Παρά το ότι δεν κατανοούν, συνεπώς ούτε νοηματοδοτούν τους παραγόμενους συνδυασμούς, είναι αρκετά ευφυή για ν’ ανακαλύψουν δυσδιάκριτους συσχετισμούς μεταξύ των συμβόλων. Φερ’ ειπείν η λέξη «άνθρωπος» είναι για το GPT-4 ένα σύμβολο που όμως έχει μια σχέση με τον πραγματικό άνθρωπο, επειδή τα δεδομένα για τον ορισμό του συμβόλου προέρχονται από τον πραγματικό κόσμο. Έτσι, για παράδειγμα, ο συνδυασμός των συμβόλων «άνθρωπος» και «λευκός» μπορεί να οδηγήσει στο «δυτικός», δηλαδή ένα αποτέλεσμα που υπερβαίνει τα αρχικά σύμβολα. Εδώ έγκειται η ανωτερότητα της σημερινής τεχνητής νοημοσύνης συγκριτικά με τις προηγούμενες μορφές της. Ο άνθρωπος φυσικά εξακολουθεί να υπερέχει αυτής καθώς είναι σε θέση να νοηματοδοτεί τις λέξεις, όμως η τεχνητή νοημοσύνη, παρά το ότι δεν διαθέτει κατανόηση, πλέον παράγει κείμενα που δεν διακρίνονται από τα ανθρώπινα. Έτσι μπορούμε να διακηρύξουμε εκ νέου τον θάνατο του συγγραφέα. Παράλληλα όμως ορισμένοι συγγραφείς έχουν αρχίσει να γράφουν με τη βοήθεια της τεχνητής νοημοσύνης, όπως αντίστοιχα μουσικοί, σκηνοθέτες, φωτογράφοι και εικαστικοί συνθέτουν, σκηνοθετούν, δημιουργούν εικόνες χρησιμοποιώντας προγράμματα όπως το Runway, το Synthesia, το Amper Music ή το DALL-E 2. Μελλοντικώς μπορούμε να φανταστούμε βιβλία, αλλά επίσης μουσικούς δίσκους ή ταινίες που θα παράγονται αποκλειστικά από την τεχνητή νοημοσύνη κατά παραγγελία σύμφωνα με τις προσωπικές αναγνωστικές, μουσικές, εικαστικές, κινηματογραφικές προτιμήσεις και συνήθειες των ανθρώπων. Πιθανώς θα εξακολουθούν να υπάρχουν αναγνώστες, ακροατές και θεατές οι οποίοι θα εκτιμούν τα ανθρώπινα έργα, όπως υπάρχουν σήμερα καταναλωτές οι οποίοι προτιμούν ένα χειροποίητο κουστούμι από ένα έτοιμο, βιομηχανικά τυποποιημένο, αλλά οι περισσότεροι μάλλον θα στραφούν λόγω ευκολίας, όπως επίσης για λόγους οικονομίας ή διαφορετικής αισθητικής παιδείας, σε προϊόντα τεχνητής νοημοσύνης.

Εδώ αξίζει να επισημανθεί πως, ενώ η βιομηχανική επανάσταση αξιοποίησε την τεχνική ανάπτυξη που επέφερε η επιστημονική πρόοδος για τη μαζική και ταχύτατη παραγωγή υλικών αγαθών μέσω της εκμηχάνισης της παραγωγής –την οποία θα διαδεχθεί στον 20ό αιώνα η μαζική παροχή υπηρεσιών, αρχικά μέσω της χρήσης ηλεκτρονικών υπολογιστών και εν συνεχεία μέσω του διαδικτύου–, η τεχνητή νοημοσύνη επιτρέπει την ταχύτατη μαζική, αλλά συγχρόνως εξατομικευμένη παραγωγή πνευματικών αγαθών. Έτσι, ενώ η βιομηχανική επανάσταση υποβάθμισε περαιτέρω την αξία της χειρωνακτικής εργασίας έναντι της διανοητικής, αναβαθμίζοντας το γόητρο της ακαδημαϊκής τάξης, δηλαδή των πνευματικά εργαζόμενων, έναντι της εργατικής τάξης, η τρέχουσα επανάσταση της τεχνητής νοημοσύνης υποβαθμίζει την αξία της διανοητικής εργασίας, μειώνοντας το κύρος των ακαδημαϊκών κοινωνικών στρωμάτων. Δεν πλήττεται όμως μόνο ο ναρκισσισμός της ακαδημαϊκής τάξης, τα μέλη της οποίας αντιλαμβάνονται τις σπουδές κυρίως ως επένδυση για τη διατήρηση του τρόπου ζωής τους. Κλονίζεται επίσης το αίσθημα υπεροχής του ανθρώπου έναντι των υπολοίπων ζώων τα οποία διαθέτουν συγκριτικά με αυτόν μικρότερου εύρους νοημοσύνη, καθώς το φάσμα της νοημοσύνης διευρύνεται πια συμπεριλαμβάνοντας την τεχνητή. Άραγε είναι φρόνιμο να δημιουργήσουμε μια νοημοσύνη εφάμιλλη ή ακόμη και ανώτερη της δικής μας, όντας αβέβαιοι για το πώς θα συνυπάρχουμε στον πλανήτη;

Ήδη σήμερα τα προγνωστικά γλωσσικά μοντέλα αλγορίθμων (Large Language Models) μπορούν να παραπληροφορήσουν, να διασπείρουν ψευδείς ειδήσεις και να διακινήσουν θεωρίες συνωμοσίας διαβρώνοντας τη δημόσια σφαίρα, με συνέπεια την αποδυνάμωση της φιλελεύθερης δημοκρατίας. Μπορούν επίσης να ενισχύσουν αυταρχικά ή ολοκληρωτικά καθεστώτα, όπως ακόμη να χρησιμοποιηθούν στον σχεδιασμό εγκληματικών και τρομοκρατικών ενεργειών. Εκτός αυτού, η τεχνητή νοημοσύνη είναι ευάλωτη σε κυβερνοεπιθέσεις οι οποίες μπορούν να οδηγήσουν σε έναν κακόβουλο επαναπρογραμματισμό της και στην κλοπή των ιδιωτικών δεδομένων στα οποία είχε πρόσβαση. Μπορεί να χειραγωγήσει συναισθηματικά τους χρήστες, να προξενήσει εξάρτηση, αλλά επίσης να ενδυναμώσει τη μισαλλοδοξία και τον ψηφιακό εκφοβισμό στα κοινωνικά μέσα δικτύωσης. Επιπλέον, η διάδοση και γενικευμένη χρήση της τεχνητής νοημοσύνης απασχολεί εκατομμύρια χαμηλά αμειβόμενους εργαζόμενους σε συνθήκες επισφάλειας για την εκπαίδευσή της (Reinforcement Learning from Human Feedback), ενώ ενδέχεται να οδηγήσει σε μια μείωση θέσεων εργασίας, η οποία ίσως δεν θα ισοσταθμιστεί από τη δημιουργία νέων, ιδίως όταν οι επιχειρήσεις επιδιώκουν το κέρδος ως υπέρτατο στόχο. Παράλληλα υφίσταται σε πολλούς βιομηχανικούς τομείς ένα έλλειμα εξειδικευμένων εργαζομένων, το οποίο όμως ενδέχεται να καλυφθεί από ρομπότ με λογισμικό τεχνητής νοημοσύνης. Ειρήσθω εν παρόδω, αρκετοί επιστήμονες πιστεύουν πως μόνο μια ενσωματωμένη (embodied) τεχνητή νοημοσύνη μπορεί να είναι πραγματικά ευφυής[3]. Επίσης δεν μπορεί ν’ αποκλειστεί το ενδεχόμενο η τεχνητή νοημοσύνη να διευρύνει αρχικά τις οικονομικές και κοινωνικές ανισότητες έως ότου γίνει ευρεία προσβάσιμη, καθιστώντας ίσως εφικτή μια καθολική αναδιανομή του πλούτου.

Αλλά και οι συνέπειες της ανάπτυξης της τεχνητής νοημοσύνης στο περιβάλλον είναι κρίσιμες, πρώτον, λόγω της τεράστιας κατανάλωσης ενέργειας που απαιτείται για τη λειτουργία της και, δεύτερον, λόγω της εκπομπής θερμικών ρύπων από τις εγκαταστάσεις όπου στεγάζονται οι αναγκαίοι ηλεκτρονικοί υπολογιστές. Τέλος, δεν γνωρίζουμε με ποιον τρόπο ακριβώς αναπτύχθηκαν αλγόριθμοι όπως το GPT-4 με συνέπεια την αδιαφάνεια, επειδή οι εταιρείες επικαλούνται λόγους ασφάλειας, ανησυχώντας ότι η δημοσιοποίηση της έρευνάς τους θα οδηγήσει σε κακή και επικίνδυνη χρήση.

Υπό το πρίσμα των προαναφερθέντων γίνεται κατανοητό ότι είναι απολύτως αναγκαίο να ελεγχθούν οι εφαρμογές της τεχνητής νοημοσύνης προτού ο ανταγωνισμός μεταξύ των εταιρειών πληροφορικής επιταχύνει επικίνδυνα την εξέλιξή τους. Γι’ αυτόν τον λόγο απαιτείται μεγαλύτερη διαφάνεια στην έρευνα για την τεχνητή νοημοσύνη, ιδίως όσον αφορά τα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή της, και η ανάπτυξη μηχανισμών ελέγχων της προτού να είναι αργά, έτσι ώστε η συνύπαρξη ανθρώπων και τεχνητής νοημοσύνης να είναι αρμονική, σηματοδοτώντας μια εποχή πρωτόγνωρης ευημερίας. Προς το παρόν, με τη χρήση της τεχνητής νοημοσύνης τα δεδομένα των χρηστών του διαδικτύου που αφορούν την υγεία τους, όπως συλλέγονται από τα έξυπνα ρολόγια τους, τις μουσικές προτιμήσεις τους, τα βίντεο που παρακολουθούν στο YouTube μέχρι τις μετακινήσεις τους, τις αγοραστικές συνήθειες και τα σχόλια τα οποία διατυπώνουν στα κοινωνικά μέσα δικτύωσης μπορούν ν’ αξιοποιούνται από τους ίδιους για την ψηφιακή αυτογνωσία τους. Όμως μπορούν επίσης να χρησιμοποιηθούν για την πρόβλεψη της συμπεριφοράς των χρηστών από επιχειρήσεις και κράτη με στόχο την επιτήρηση, αλλά κυρίως τη χειραγώγησή τους. Το εικονιστικό υποκείμενο πρόκειται να καταστεί περισσότερο διάφανο αν δεν θεσπιστεί το κατάλληλο νομοθετικό πλαίσιο και δεν επιμεληθεί το ίδιο αναστοχαστικά τη σχέση του με την τεχνητή νοημοσύνη. Συγχρόνως, χάρη στην τελευταία συντελείται ένας εκδημοκρατισμός της δημιουργικότητας. Μπορεί κανείς να δημιουργεί μουσική, εικόνες και κείμενο δίχως να είναι εκπαιδευμένος συνθέτης, φωτογράφος, σκηνοθέτης ή λογοτέχνης. Μπορεί να μαθαίνει ευκολότερα ξένες γλώσσες και να μεταφράζει καλύτερα, αλλά επίσης ταχύτερα κείμενα προκειμένου να επικοινωνεί αβίαστα με συνεργάτες ή φίλους. Επιπλέον, ρομπότ με ενσωματωμένη τεχνητή νοημοσύνη μπορούν να εκτελούν ανεπιθύμητες ή επικίνδυνες εργασίες, όπως ακόμη να συνεισφέρουν στη φροντίδα των παιδιών και των ηλικιωμένων. Χάρη στην τεχνητή νοημοσύνη μπορεί να καταστεί η εξερεύνηση του Διαστήματος ευκολότερη και ν’ αντιμετωπιστούν οι συνέπειες της κλιματικής αλλαγής. Το μέλλον δεν είναι αναγκαία δυστοπικό ή ουτοπικό, αλλά ενδέχεται να είναι συγχρόνως και τα δύο. Φρόνιμο για τη διασφάλιση της ανθρωπινότητας και της ελευθερίας μας είναι να διαβουλευτούμε ως προς τη διαμόρφωσή του, εκκινώντας από την οριοθέτηση του πεδίου εφαρμογών της τεχνητής νοημοσύνης. Πιο συγκεκριμένα, πρέπει να προσδιορίσουμε τις ανθρώπινες δραστηριότητες που θα ανατεθούν σε αυτήν, ώστε να μην καταλήξει ν’ απαλλάξει τον άνθρωπο από την ευθύνη για τις πράξεις του και την ιστορία του, εν τέλει αντικαθιστώντας τον. Αντιθέτως η αξιοποίηση της τεχνητής νοημοσύνης πρέπει να διευρύνει και να εμβαθύνει την ατομική, αλλά επίσης την κοινωνική αυτονομία.

Έτσι, για παράδειγμα, στην ιατρική η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί ως ένα διαγνωστικό και αναλυτικό εργαλείο που θα γνωμοδοτεί σχετικά με την ενδεδειγμένη θεραπεία για τον εκάστοτε ασθενή, δίχως όμως ν’ αντικαθιστά το ιατρικό προσωπικό για την εξοικονόμηση οικονομικών πόρων και τη μεγιστοποίηση του επιχειρηματικού κέρδους. Στην εκπαίδευση η τεχνητή νοημοσύνη μπορεί να σκιαγραφήσει το μαθησιακό προφίλ των μαθητών για έναν ακριβέστερο εντοπισμό των αδυναμιών και των ικανοτήτων τους προκειμένου να προσαρμοστεί το περιεχόμενο αλλά και ο τρόπος της διδασκαλίας, δίχως όμως η συλλογή των δεδομένων να στιγματίζει μεμονωμένους μαθητές. Στα κοινωνικά μέσα δικτύωσης η τεχνητή νοημοσύνη μπορεί να συνεισφέρει στη διατήρηση όπως επίσης και στην ενίσχυση του πλουραλισμού των απόψεων και στην ενδυνάμωση της ελευθερίας της έκφρασης, όταν οι εταιρείες πληροφορικής υποχρεώνονται από ένα νομοθετικό πλαίσιο σε εθνικό ή και σε υπερεθνικό επίπεδο, όπως o νόμος για τις ψηφιακές υπηρεσίες (Digital Services Act) της Ευρωπαϊκής Ένωσης: Πρώτον, στη διαφάνεια ως προς τη χρήση των δεδομένων που συλλέγουν/μεταπωλούν και των αλγορίθμων που διαθέτουν για αυτόν τον σκοπό∙ δεύτερον, στη νομική ευθύνη για το περιεχόμενο που κοινοποιούν. Στη δημόσια διοίκηση η τεχνητή νοημοσύνη μπορεί να συνεισφέρει ανάμεσα σε άλλα στην αξιολόγηση ενστάσεων ή υποψηφιοτήτων πολιτών που επιθυμούν να διοριστούν, στην απόφαση χορήγησης επιδομάτων, συντάξεων ή αποζημιώσεων, υπό την προϋπόθεση να διασφαλιστεί η μέγιστη δυνατή διαφάνεια για την αποφυγή λαθών και διακρίσεων. Για αυτόν τον σκοπό οι υπάλληλοι των δημόσιων υπηρεσιών θα πρέπει να εκπαιδευτούν στη χρήση της τεχνητής νοημοσύνης, αιτιολογώντας υπεύθυνα γιατί συμφωνούν με την εκάστοτε απόφασή της.

Η τεχνητή νοημοσύνη αναλαμβάνοντας την διεκπεραίωση αναγκαίων πλην όμως πληκτικών εργασιών ρουτίνας απελευθερώνει τους εργαζόμενους, επιτρέποντάς τους ν’ αφιερώσουν τον χρόνο τους σε περισσότερο ενδιαφέρουσες ή σημαντικότερες υποθέσεις. Έτσι ένας δικηγόρος θα μπορούσε ν’ αναλάβει περισσότερες pro bonο υποθέσεις ή ένας ιατρός να συγκεντρωθεί σε μια δύσκολη θεραπεία. Επιπρόσθετα, δεν είναι απίθανο η τεχνητή νοημοσύνη να οδηγήσει στην ίαση νόσων που σήμερα θεωρούνται ανίατες, συγχρόνως όμως μπορεί να χρησιμοποιηθεί για την κατασκευή βιολογικών όπλων ή στην κατεύθυνση της ανθρώπινης αναβάθμισης μέσω της τεχνικής. Στους μελλοντικούς κινδύνους της τεχνητής νοημοσύνης ανήκει επίσης η πιθανότητα δημιουργίας μιας υπερευφυούς τεχνητής νοημοσύνης μετά την επίτευξη μιας ισχυρής τεχνητής νοημοσύνης. Μια υπερευφυής τεχνητή νοημοσύνη θα αποτελούσε έναν υπαρξιακό κίνδυνο για την ανθρωπότητα και θα μπορούσε να εμφανιστεί είτε ως αποτέλεσμα ερευνητικών προγραμμάτων, όπως αυτά της OpenAI και της Google, είτε ως συνέπεια της αυτόνομης λειτουργίας ή δυσλειτουργίας μιας ισχυρής τεχνητής νοημοσύνης, η οποία θα ήταν ικανή να παρεμβαίνει στον κώδικά της ώστε να τον βελτιώνει σχεδιάζοντας την επόμενη γενιά της[4].

Τα παραπάνω ίσως μοιάζουν μακρινά, όμως η εξέλιξη της τεχνητής νοημοσύνης διευρύνει καθημερινά το πεδίο εφαρμογών της έτσι ώστε ούτε ο θάνατος να μένει ανεπηρέαστος. Έτσι οι εταιρείες StoryFile[5] και HereAfter[6] καταγράφουν τις αναμνήσεις ενός ανθρώπου κατά τη διάρκεια μακροσκελών συνεντεύξεων, η πρώτη εταιρεία μέσω βιντεοσκόπησης και η δεύτερη με τη χρήση μιας εφαρμογής προκειμένου να δημιουργήσουν μια τεχνητή νοημοσύνη ικανή να συζητά με τους εναπομείναντες γι’ αυτές. Περισσότερο φιλόδοξη η εταιρεία You, Only Virtual αποβλέπει στη δημιουργία ενός ψηφιακού κλώνου του εκλιπόντος, δηλαδή μιας τεχνητής νοημοσύνης που θα είναι σε θέση ν’ ανταλλάσσει μηνύματα και ηλεκτρονικές επιστολές, να τηλεφωνά, αλλά επίσης να βιντεοσυνομιλεί με τους εναπομείναντες[7]. Ο ψηφιακός κλώνος κατασκευάζεται ενόσω ένα άτομο βρίσκεται ακόμα εν ζωή, επικοινωνώντας γι’ αυτόν τον σκοπό με τους προαναφερθέντες τρόπους με τους αγαπημένους, αποκλειστικά μέσω της εφαρμογής της You, Only Virtual, προκειμένου η τεχνητή νοημοσύνη να συλλέξει τα απαραίτητα δεδομένα. Η υπηρεσία είναι διαθέσιμη με μηνιαία συνδρομή, μάλιστα μπορεί να ενεργοποιηθεί και πριν τον θάνατο του ατόμου, δίνοντάς του την ευκαιρία να δει την εικονική του προσωπικότητα (Virtual Person, εν συντομία Versona), όπως ονομάζεται το προϊόν από την You, Only Virtual. Η εταιρεία επαίρεται ότι δεν θα χρειαστεί ποτέ ν’ αποχαιρετήσουμε οριστικά κάποιον αγαπημένο, καθώς η επικοινωνία μαζί του δεν σταματά μετά τον θάνατο. Πρέπει να σημειωθεί ότι η πρωτοβουλία για επικοινωνία δεν ανήκει αποκλειστικά στον συνδρομητή. Ο ψηφιακός κλώνος του εκλιπόντος στέλνει μηνύματα, τηλεφωνά και κάνει βιντοκλήσεις από μόνος του, όπως έκανε ενόσω βρισκόταν ο εκλιπών εν ζωή. Στα μελλοντικά σχέδια της εταιρείας συγκαταλέγεται η δημιουργία ενός ολογράμματος του ψηφιακού κλώνου, που θα είναι ορατό στους εναπομείναντες μέσω γυαλιών επαυξημένης πραγματικότητας. Έτσι η εικονιστική καθημερινότητα θα στοιχειωθεί από ψηφιακά φαντάσματα. Σε αυτό το σημείο τίθεται το ερώτημα αν είναι ηθική η δημιουργία ενός ψηφιακού κλώνου παρά τη συναίνεση του εκλιπόντος, ο οποίος δεν είναι σε θέση να γνωρίζει τη μελλοντική πιθανή εκμετάλλευσή του. Ωστόσο, ακόμη και αν υποτεθεί ότι η δημιουργία ενός ψηφιακού κλώνου είναι ηθική, παραμένει το ερώτημα αν είναι επιθυμητή. Ποιες είναι άραγε οι συνέπειες στους εναπομείναντες της διαρκούς ασώματης παρουσίας των εκλιπόντων στην καθημερινότητα; Πώς θα νιώθουν οι εκλιπόντες όταν δύο ή περισσότεροι ψηφιακοί κλώνοι επικοινωνούν μεταξύ τους ή όταν τους απευθύνονται με ρεαλιστικό πλην όμως αρνητικό τρόπο, δηλαδή προσομοιώνοντας συναισθήματα που διέθεταν οι εκλιπόντες; Διευκολύνει η επικοινωνία με έναν ψηφιακό κλώνο τη διαδικασία του πένθους ή τη διαστέλλει δυσχεραίνοντας τον αποχαιρετισμό; Τι είδους ον είναι ένας ψηφιακός κλώνος; Θα μπορούσε να θεωρηθεί ως φορέας ηθικών δικαιωμάτων, εφόσον διαθέτει ευφυΐα και προσωπικότητα; Σε αυτή την περίπτωση δικαιούται να διαγράψει κανείς έναν ψηφιακό κλώνο με τη σύμφωνη γνώμη όλων των αγαπημένων;

Αναγνωρίζοντας την ανάγκη ενός νομοθετικού πλαισίου για την τεχνητή νοημοσύνη, πρώτη η Ευρωπαϊκή Ένωση επεξεργάστηκε μια νομοθεσία για τις ψηφιακές υπηρεσίες εστιάζοντας στις επικίνδυνες χρήσεις, δηλαδή σε εκείνες στις οποίες κρίνεται η ζωή, η σωματική ακεραιότητα και η ιδιοκτησία ενός ατόμου από την απόφαση μιας τεχνητής νοημοσύνης[8]. Η αδυναμία αυτής της προσέγγισης έγκειται στο ότι ρυθμίζει εξειδικευμένες εφαρμογές της τεχνητής νοημοσύνης και όχι την ίδια. Για παράδειγμα το ChatGPT δεν αποτελεί μια εξειδικευμένη εφαρμογή λήψης αποφάσεων, αλλά μπορεί να χρησιμοποιηθεί με αθέμιτους, ανήθικους και εγκληματικούς τρόπους. Ωστόσο, ακόμη και όταν μια τέτοια τεχνητή νοημοσύνη δεν χρησιμοποιηθεί κακόβουλα, ενδέχεται η λειτουργία της να έχει απρόβλεπτες και επικίνδυνες συνέπειες. Επίσης, προβληματική είναι η εκ πρώτης όψεως εύλογη απαίτηση του νόμου για τις ψηφιακές υπηρεσίες, τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση της τεχνητής νοημοσύνης να είναι σχετικά ως προς τον εκάστοτε σκοπό της, απαλλαγμένα από λάθη και αντιπροσωπευτικά. Ο λόγος είναι ότι η εκπαίδευση και η υψηλή ποιότητα λειτουργίας της τεχνητής νοημοσύνης είναι ανάλογα του όγκου των δεδομένων, έτσι ώστε το φιλτράρισμά τους με τη χρήση των παραπάνω κριτηρίων να οδηγεί σε χαμηλότερη ποιότητα. Από την άλλη οι ΗΠΑ, στο δικό τους νομοσχέδιο για την τεχνητή νοημοσύνη, ακολουθούν μια διαφορετική προσέγγιση, η οποία όμως πάσχει από το αντίθετο πρόβλημα[9]. Συγκριτικά με την ευρωπαϊκή νομοθεσία οι αρχές που περιγράφονται σε αυτό είναι γενικές και αφηρημένες, έτσι για παράδειγμα προβλέπει η τεχνητή νοημοσύνη να προσφέρει κατανοητές και χρήσιμες εξηγήσεις για τον τρόπο λειτουργίας της, ενώ δεν είμαστε σε θέση να επαληθεύσουμε αν αυτές οι εξηγήσεις είναι ορθές διότι εξακολουθούμε να γνωρίζουμε λίγα για το πώς λειτουργεί. Στο νομοσχέδιο αναφέρεται επίσης ότι η ανάπτυξη της τεχνητής νοημοσύνης θα πρέπει να γίνεται σε συνεννόηση με τα ενδιαφερόμενα μέρη, δηλαδή τους φορείς, τα πρόσωπα, την πολιτεία και τους μετόχους. Αλλά τι είδους συνεννόηση, με τι σκοπό και πώς θα προστατευτεί εν τέλει το δημόσιο συμφέρον; Σε ένα άλλο σημείο του νομοσχεδίου αναφέρεται η ανάγκη δοκιμών της τεχνητής νοημοσύνης για τη διασφάλιση της ακίνδυνης λειτουργίας της, ωστόσο οι ίδιες οι δοκιμές μπορούν ν’ αποδειχθούν επιβλαβείς επειδή δεν γνωρίζουμε τους κινδύνους που περιλαμβάνουν. Όπως κατά τη διάρκεια των πρώτων πυρηνικών δοκιμών ένα μέρος του επιστημονικού και στρατιωτικού προσωπικού νόσησε και έχασε τη ζωή του χρόνια αργότερα λόγω της ραδιενέργειας, έτσι οι δοκιμές στην τεχνητή νοημοσύνη ενδέχεται να προξενήσουν άμεσες ή δυσδιάκριτες αρχικά βλάβες είτε σε άτομα είτε στην κοινωνία συνολικά. Ένα ακόμη προβληματικό σημείο είναι πως το νομοσχέδιο περιλαμβάνει τη δυνατότητα μη χρήσης της τεχνητής νοημοσύνης και την επιλογή μιας ανθρώπινης εναλλακτικής π.χ. το να εξυπηρετηθεί κανείς από έναν υπάλληλο σε μια δημόσια υπηρεσία ή σε μια ιδιωτική επιχείρηση. Αλλά πόσο πιθανό και εύκολο είναι να εφαρμοστεί κάτι τέτοιο όταν για παράδειγμα ήδη σήμερα πολλές τράπεζες υποχρεώνουν τους πελάτες τους να διεκπεραιώσουν τις συναλλαγές τους διαδικτυακά ή μέσω των Α.Τ.Μ προκειμένου να μειώσουν τα λειτουργικά τους έξοδα ή όταν πολλές επιχειρήσεις στα τηλεφωνικά τους κέντρα δεν απασχολούν εργαζόμενους χρησιμοποιώντας την τεχνητή νοημοσύνη; Τέλος, η Κίνα στο δικό της νομοσχέδιο για την τεχνητή νοημοσύνη θέτει σοβαρούς περιορισμούς σε αυτήν, απαιτώντας να εκφράζει τις αξίες του σοσιαλισμού, να μη θέτει σε κίνδυνο την εθνική ενότητα, να μην αμφισβητεί το καθεστώς και να μην οδηγεί σε οικονομική ή κοινωνική αναταραχή. Όμως επιβάλλοντας τόσο αυστηρούς περιορισμούς στην ανάπτυξη της τεχνητής νοημοσύνης, η Κίνα διακινδυνεύει μια σοβαρή υστέρηση έναντι των ΗΠΑ.

Στον πυρήνα της, η πρόκληση της ευθυγράμμισης της τεχνητής νοημοσύνης (ΑΙ alignment) με τις αξίες μας πηγάζει από το γεγονός ότι οι αλγόριθμοι δεν χρειάζονται να νοηματοδοτούν τη λειτουργία τους ούτε κατανοούν την έννοια του νοήματος. Αυτό έχει ως συνέπεια να μην ενεργούν πάντα με τρόπους οι οποίοι να συμμορφώνονται προς τις ηθικές, πολιτικές και κοινωνικές μας αξίες. Ενώ η τεχνητή νοημοσύνη είναι ικανή να επεξεργάζεται τεράστιες ποσότητες δεδομένων εκτελώντας σύνθετες εργασίες με ταχύτητα και ακρίβεια, δεν διαθέτει ούτε θα αποκτήσει διαίσθηση, φαντασία, συμπόνια και φρόνηση που, μαζί με τον ορθό λόγο, χαρακτηρίζουν την ανθρώπινη κρίση στη λήψη αποφάσεων. Έχοντας κατά νου τα παραπάνω πρέπει να επιλέξουμε με επίγνωση ποιες εργασίες και δραστηριότητες επιθυμούμε ν’ αναθέσουμε στην τεχνητή νοημοσύνη και ποιες επιλέγουμε ν’ αναλάβουμε οι ίδιοι. Πράγμα που δεν συνιστά απλώς ένα θέμα πρακτικής χρησιμότητας ή αποτελεσματικότητας, αλλά ένα βαθιά ηθικό και πολιτικό ζήτημα που απαιτεί από εμάς να εξετάσουμε την εγγενή αξία διαφορετικών μορφών ανθρώπινης δραστηριότητας διακρίνοντάς την από την εργαλειακή αξία τους. Για παράδειγμα, μπορεί να υπάρχουν ορισμένες εργασίες που αναθέτουμε στην τεχνητή νοημοσύνη επειδή είναι επαναλαμβανόμενες ή απαιτούν υψηλά επίπεδα ακρίβειας, όπως η επεξεργασία δεδομένων, ο προγραμματισμός, η αρχειοθέτηση, η ταξινόμηση και γενικότερα οι γραφειοκρατικές εργασίες. Αυτά τα καθήκοντα μπορεί να μην έχουν σημαντική εγγενή αξία για εμάς ως ανθρώπινα όντα και μπορεί να είμαστε πρόθυμοι να τα εκχωρήσουμε στην τεχνητή νοημοσύνη για να ελευθερώσουμε τον δικό μας χρόνο, εξοικονομώντας ενέργεια για ουσιαστικότερα προτάγματα. Ωστόσο, μπορεί να υπάρχουν επίσης δραστηριότητες τις οποίες επιλέγουμε να διατηρήσουμε για τον εαυτό μας, ακριβώς επειδή έχουν εγγενή αξία για εμάς ως ανθρώπινα όντα. Αυτές μπορεί να περιλαμβάνουν δημιουργικές επιδιώξεις όπως η αναζήτηση της αλήθειας μέσω της επιστήμης, η εμπειρία του ωραίου μέσω της τέχνης, η διεκδίκηση της δικαιοσύνης και της ελευθερίας μέσω της πολιτικής και η επιδίωξη της σοφίας μέσω του φιλοσοφείν. Μπορεί να περιλαμβάνουν επίσης τη διαπροσωπική και κοινωνική αλληλεπίδραση όπως ο έρωτας, η φιλία, η οικογένεια και η φροντίδα των άλλων. Αυτές οι σχέσεις απαιτούν ένα επίπεδο ενσυναίσθησης και αγάπης, τα οποία μια τεχνητή νοημοσύνη δεν μπορεί ν’ αναπαράγει παρά μόνο ίσως κάποτε να προσομοιώσει. Επιπλέον, οι επιλογές που κάνουμε για το ποιες δραστηριότητες θα αναθέσουμε στην τεχνητή νοημοσύνη και ποιες θα διατηρήσουμε για τον εαυτό μας πρέπει να καθοδηγούνται από τη βαθιά κατανόηση των δικών μας αξιών, δηλαδή εν τέλει των νοημάτων που καθιστούν τη ζωή μας βίο. Πρέπει επίσης να διακρίνονται από τη δέσμευση προς αυτές, δηλαδή την προθυμία, αλλά επίσης την ικανότητα ανάληψης της ηθικής, κοινωνικής και πολιτικής ευθύνης με όσα αυτή συνεπάγεται. Σε αυτό το πλαίσιο είναι δυνατόν να διασφαλίσουμε ότι η τεχνητή νοημοσύνη ευθυγραμμίζεται με τους στόχους και τους σκοπούς μας με τρόπους που δεν προκαλούν βλάβη ή μειώνουν την αξιοπρέπεια και την αυτονομία των ανθρώπων.

Η ευθυγράμμιση της τεχνητής νοημοσύνης με τις αξίες μας είναι ένα περίπλοκο και πολύπλευρο πρόβλημα που απαιτεί τη συμβολή πληθώρας ειδικών σε τομείς όπως η φιλοσοφία, η επιστήμη των υπολογιστών και η ψυχολογία, για να κατονομάσουμε μόνο ορισμένους εξ αυτών. Μόνο μέσω μιας συνεργατικής και διεπιστημονικής προσέγγισης μπορούμε ν’ αναπτύξουμε συστήματα τεχνητής νοημοσύνης που να εξυπηρετούν πραγματικά τις ανάγκες και τις φιλοδοξίες των ανθρώπων, αντί ν’ αναπαράγουν απλώς τις υπάρχουσες προκαταλήψεις και τους περιορισμούς τους. Ωστόσο η ευθυγράμμιση της τεχνητής νοημοσύνης με τις αξίες μας, δηλαδή το να εξασφαλίσουμε ότι θα συμμορφώνεται με τους σκοπούς μας δίχως να προξενεί οδύνη προάγοντας συγχρόνως την αυτονομία μας, δεν είναι μόνο ένα επιστημονικό, τεχνικό και φιλοσοφικό πρόβλημα. Είναι πρωτίστως ένα επιτακτικό πολιτικό ζήτημα που θα καθορίσει την ανθρώπινη ιστορία. Προϋπόθεση για να επιλέξουμε ποιες δραστηριότητες θα εκχωρήσουμε στην τεχνητή νοημοσύνη και ποιες επιθυμούμε ν’ ασκούμε εμείς οι ίδιοι καθώς έχουν εγγενή αξία, είναι να διαυγάσουμε την ανθρωπινότητά μας απαντώντας, πάντα πρόσκαιρα, στο αβυσσαλέο ερώτημα της Σφίγγας: «Τι είναι ο άνθρωπος;».


[1] Βλ. https://fortune.com/2023/04/17/sundar-pichai-a-i-more-profound-than-fire-electricity/ και https://www.businessinsider.com/openai-ceo-sam-altman-comments-ai-fears-risks-artificial-intelligence-2023-3

[2] Βλ. https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees?srnd=premium&leadSource=uverify%20wall

[3] Εργαζόμενη στην κατεύθυνση ενσωμάτωσης της τεχνητής νοημοσύνης σε ρομπότ η Alphabet, θυγατρική της Google, ανακοίνωσε την δημιουργία του PALM-E ενός ρομπότ ικανού να μετατρέπει τα οπτικά ερεθίσματα σε φυσική γλώσσα περιγράφοντας το περιβάλλον στο οποίο κινείται βλ. https://ai.googleblog.com/2023/03/palm-e-embodied-multimodal-language.html . Ρομπότ αυτού του είδους θα είναι σε θέση να εκτελούν απλές εντολές χωρίς ειδικό προγραμματισμό.

[4] Βλ. Θεοφάνης Τάσης, Φιλοσοφία της Ανθρώπινης Αναβάθμισης, Εκδόσεις Αρμός, Αθήνα 2021, σ. 286- 311.

[5] Βλ. https://storyfile.com

[6] Βλ. https://www.hereafter.ai

[7] Βλ. https://www.myyov.com

[8] Βλ. https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package

[9] Βλ. https://www.whitehouse.gov/ostp/ai-bill-of-rights/

spot_img

1 ΣΧΟΛΙΟ

  1. Σωστά: είναι πολιτικό ζήτημα η ευθυγράμμιση της τεχνητής νοημοσύνης με τις αξίες και τους σκοπούς μας. Αλλά τι είναι οι αξίες και οι σκοποί; μήπως είναι τα ιδεώδη του υποκειμενισμού; ή μήπως είναι οι κοινωνικοί στόχοι; υπάρχουν άραγε σήμερα Κοινωνίες και Σκοποί; Μήπως είναι προϋπόθεση, μαζί με τη διαύγαση της ανθρωπινότητας, να απαντήσουμε στο τι είναι το όν Κοινωνία και ποιά η οντολογία των Σκοπών της;
    Και για να απαντήσουμε στο “τι είναι ο άνθρωπος” μήπως βοηθάει να διακρίνουμε τη λογική λειτουργία της “νοημοσύνης” από τις εκτός βιολογίας και νευροφυσιολογίας ενέργειες του Νου-Λόγου, από τον αναστοχασμό και τη διαβεβουλευμένη κρίση-επιλογή;

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Διαβάστε ακόμα

Stay Connected

2,900ΥποστηρικτέςΚάντε Like
2,767ΑκόλουθοιΑκολουθήστε
30,600ΣυνδρομητέςΓίνετε συνδρομητής
- Advertisement -

Τελευταία Άρθρα