Πόσο απέχουμε από τέτοιες εξελίξεις; Ενας απόμαχος πρωτοπόρος της ΤΝ, που πρόσφατα παραιτήθηκε από την «Google» ώστε να μπορεί να μιλάει ελεύθερα για τα ζητήματα αυτά όπως δήλωσε, υποστηρίζει ότι αυτή η στιγμή δεν απέχει πάνω από 10 χρόνια. Ανάλογες απόψεις συμμερίζονται και αρκετοί άλλοι ερευνητές, αν και όχι όλοι. Σήμερα όμιλοι παραγγέλνουν σε εταιρείες ΤΝ υποκατάστατα στελεχών τους, ώστε να μπορούν π.χ. να απαντούν αυτόματα σε αλληλογραφία, όπως θα έκανε ο συγκεκριμένος υπάλληλος, εκπαιδεύοντάς τα με όλη την προηγούμενη δουλειά του, χωρίς βεβαίως να δίνουν καμία αποζημίωση για το υποκατάστατο στο ...πρωτότυπο, δηλαδή στον εργαζόμενο.
Διεθνώς υπάρχουν ήδη πολλές ιστοσελίδες με δεκάδες χιλιάδες πορνογραφικά βίντεο, στα οποία στη συντριπτική πλειοψηφία τα πρόσωπα των γυναικών είναι ψεύτικα. Σε πολλά από τα βίντεο έχουν χρησιμοποιηθεί τα πρόσωπα διάσημων γυναικών, ηθοποιών, τραγουδιστών και άλλων, ενώ σε αρκετά άλλα έχουν χρησιμοποιηθεί τα πρόσωπα γυναικών της διπλανής πόρτας. Είναι μεγάλο ψυχολογικό πλήγμα για τις ανύποπτες γυναίκες, που ξαφνικά μαθαίνουν τυχαία ότι στο διαδίκτυο κυκλοφορεί πορνογραφικό υλικό που τις απεικονίζει. Και αν δεν μπορέσουν να αποδείξουν ότι είναι deepfake («βαθιά ψευδές», δηλαδή εξολοκλήρου κατασκευασμένο) τα πράγματα γίνονται ακόμα πιο δύσκολα, καθώς αυτό θα τις ακολουθεί σε όλη τους τη ζωή.
Χρειάζεται ανάλυση με εξειδικευμένα συστήματα, που και τα ίδια χρησιμοποιούν ΤΝ, για να βρεθούν ατέλειες στα deepfake βίντεο, εικόνες ή ηχητικά αποσπάσματα. Σε δοκιμή με χιλιάδες τέτοια υλικά, ως ψεύτικα εντοπίστηκαν μόνο τα δύο τρίτα απ' αυτά. Στο μέλλον ίσως γίνει ακόμα πιο δύσκολο έως αδύνατο να εντοπίζονται. Αλλά και σήμερα, όταν τελικά χαρακτηριστούν ψεύτικα, αυτό γίνεται εκ των υστέρων. Στο μεταξύ, το ψευδές μήνυμα ενδέχεται να έχει διαδοθεί ανεξέλεγκτα, χάρη και στα Μέσα Κοινωνικής Δικτύωσης (ΜΚΔ), και να έχει οδηγήσει σε χειραγωγημένες αντιδράσεις την κρίσιμη στιγμή. Μέσα σε ένα περιβάλλον όπου αυτό που βλέπεις και αυτό που ακούς μπορεί να είναι τελείως κατασκευασμένα, είναι δυνατόν σημαντική μερίδα όσων παρακολούθησαν το βίντεο να μην πιστέψουν την αποκάλυψη του ψεύδους. Από την άλλη μεριά, κάποιοι μπορεί να θεωρήσουν μάταιη την αναζήτηση αληθούς πληροφόρησης και να κλείσουν τα αυτιά και τα μάτια ακόμη και σε αληθινές ειδήσεις, που αποτυπώνονται στο χαρτί ή εμφανίζονται σε οθόνη, οι οποίες όμως είναι σημαντικές για διαμόρφωση μιας βασισμένης στην πραγματικότητα πολιτικής αντίληψης και γνώσης των εξελίξεων.
Η αλήθεια είναι ότι τα ΜΚΔ, επειδή επιδιώκουν τη μεγιστοποίηση της συμμετοχής, ώστε να αυξηθούν τα διαφημιστικά και άλλα κέρδη, ακόμη και πριν τα deepfake ήταν ιδανικό πλαίσιο για «φούσκες» προαγωγής και ενίσχυσης συγκεκριμένων αντιλήψεων μεταξύ ομοϊδεατών, και για αποδοχή και διασπορά παραπληροφόρησης και ψευδών ειδήσεων, οι οποίες - σε αντιδιαστολή με τα deepfake - μπορούν να ονομαστούν «ρηχά ψευδείς», καθώς δεν αντέχουν ούτε σε μια πρώτη εξέταση και θα έπρεπε να προκαλούν στον καθέναν ερωτήματα για την εγκυρότητα και την ακρίβειά τους.
Η δυνατότητα δημιουργίας deepfake βίντεο, όπου κάποιος, ενδεχομένως δημόσιο πρόσωπο, φέρεται να δηλώνει οτιδήποτε, με βάση τις στοχεύσεις των κατασκευαστών των βίντεο, αποτελεί κλοπή ταυτότητας. Το εμφανιζόμενο πρόσωπο μπορεί να δυσφημιστεί ή ακόμα και να γίνει στόχος επιθέσεων, αρκεί να έχει γίνει προσεκτική και όχι χονδροειδής διαμόρφωση των λεγόμενών του, κάτι που θα κινούσε υποψίες. Εχουν υπάρξει περιπτώσεις που έχει χρησιμοποιηθεί ακριβώς με αυτήν την έννοια, για απόσπαση πληροφοριών στο πλαίσιο του ανταγωνισμού μεταξύ εταιρειών, την πρόσβαση σε συστήματα αντίπαλων ομίλων κ.λπ.
Σε μια άλλη εκδοχή των κινδύνων από τις εφαρμογές που βρίσκει σήμερα η ΤΝ, η εταιρεία «Replika» δίνει τη δυνατότητα σε κάθε ενδιαφερόμενο να ...κατασκευάσει τον ιδανικό chatbot - σύντροφο ή φίλο, με τον οποίο στην πορεία αναπόφευκτα συνδέεται συναισθηματικά, καθώς η συνομιλία φαίνεται να γίνεται με πραγματικό άνθρωπο, που είναι ακριβώς όπως θα τον ήθελε κανείς. Ετσι, όμως, ακόμη και άνθρωποι που σε κάποια φάση της ζωής τους έχουν έντονη ανάγκη ψυχολογικής υποστήριξης, δεν θα την αναζητήσουν σε πραγματικούς φίλους ή ειδικούς αλλά σε μορφές ΤΝ, που δεν καταλαβαίνουν τον κόσμο και τους ανθρώπους, παρά μόνο μπορούν να παράγουν κείμενο που τις κάνει να μοιάζουν σαν να τους καταλαβαίνουν. Με τέτοια χρήση της ΤΝ, η απομόνωση και αποξένωση μεγαλώνει και οι πραγματικοί άνθρωποι φαίνονται στον χρήστη υποδεέστεροι. Μπορεί να είναι όμως μια εθιστική χρήση, κερδοφόρα για την εταιρεία που βρίσκεται πίσω απ' αυτήν.
Η ΤΝ μπορεί να χρησιμοποιηθεί για το καλό των ανθρώπων στο σύνολό τους. Για παράδειγμα, η προ ολίγων ετών ανάπτυξη μιας εφαρμογής ΤΝ βαθιάς μηχανικής μάθησης, του AlphaFold2, που μπορεί να υπολογίσει πώς θα διπλωθεί στον τρισδιάστατο χώρο ένα τεράστιο πρωτεϊνικό μόριο, είναι εξαιρετικής σημασίας για την ιατρική και φαρμακολογική έρευνα. Οι επιστήμονες χρησιμοποιούν τώρα το AlphaFold2 για την κατασκευή πρωτεϊνών που δεν υπάρχουν στη φύση και έχουν λειτουργίες κατά παραγγελία, χρήσιμες π.χ. για την παρασκευή νέων, ευρύτερου φάσματος αντιιικών φαρμάκων. Γίνεται προσπάθεια να ενσωματωθούν σε αυτήν την τεχνολογία και παραγωγικά μοντέλα τύπου DALL-E 2 (φτιάχνει εικόνες) και ChatGPT (φτιάχνει κείμενα), ώστε να μπορεί να ζητηθεί από την ΤΝ να κατασκευάσει πρωτεΐνες με βάση τα επιθυμητά χαρακτηριστικά, χωρίς να χρειάζεται άνθρωποι να δοκιμάσουν διάφορες ακολουθίες αμινοξέων για να δουν αν προκύπτουν πρωτεΐνες με αυτά τα χαρακτηριστικά. Η έρευνα στον τομέα προχωρεί με εκρηκτικό ρυθμό. Η «DeepMind», θυγατρική της «Alphabet» («Google»), που πέτυχε τον άθλο του AlphaFold2, οπωσδήποτε είχε κατά νου και το χρήμα που θα έφερνε αυτή η τεχνολογία. Τώρα πάντως, στο πλαίσιο του ανταγωνισμού της «Google» με το άλλο μονοπώλιο, τη «Microsoft», αποφασίστηκε η ενσωμάτωση της ερευνητικής ομάδας της «DeepMind», που λειτουργούσε μέχρι τώρα με ορισμένη αυτοτέλεια, μέσα στην ομάδα ανάπτυξης ΤΝ chatbot του ομίλου. Σκοπός της ενσωμάτωσης είναι το Bard, το Μεγάλο Γλωσσικό Μοντέλο της «Google», να μπορέσει να ανταγωνιστεί και ίσως να ξεπεράσει το ChatGPT, που ενσωματώθηκε στην Bing, τη μηχανή αναζήτησης της «Microsoft».
Αν με τα σημερινά Μεγάλα Γλωσσικά Μοντέλα και τα αντίστοιχα συστήματα για παραγωγή εικόνων περιορισμένης (στενής) ΤΝ δεν μπορεί πάντα να διαπιστωθεί αν πίσω από ένα κείμενο ή μια εικόνα βρίσκεται ένας άνθρωπος ή ένα μηχάνημα, τι θα σήμαινε η δημιουργία Τεχνητής Γενικής Νοημοσύνης, δηλαδή μηχανών που θα μπορούν σε όλα τα ζητήματα και τους τομείς δραστηριότητας να «περάσουν» ως άνθρωποι και να εκτελέσουν εργασίες όπως οι άνθρωποι; Καθώς με επιταχυνόμενο ρυθμό η επιστημονική φαντασία γίνεται πραγματικότητα, έρχεται στο μυαλό μια ατάκα πρωταγωνιστή δημοφιλούς ταινίας επιστημονικής φαντασίας: «Οι επιστήμονές σας ήταν τόσο απασχολημένοι με το αν μπορούν, που δεν έκατσαν να σκεφτούν αν έπρεπε»... Ομως, ανεξάρτητα από την ευθύνη που έχουν ως μορφωμένοι και κατ' ελπίδα καλλιεργημένοι άνθρωποι, οι επιστήμονες δεν λειτουργούν σε κοινωνικό κενό. Διαπαιδαγωγούνται, εμπνέονται και - είτε το αντιλαμβάνονται είτε όχι - ωθούνται σε δράση από τον τρόπο οργάνωσης της κοινωνίας στην οποία ζουν, από τις σχέσεις παραγωγής που τη διέπουν. Η ανάπτυξη της ΤΝ προχωρά κατευθυνόμενα, με επένδυση δισεκατομμυρίων από τα μονοπώλια του ευρύτερου τομέα της πληροφορικής και των διαδικτυακών υπηρεσιών. Δεν εναπόκειται ούτε μόνο, ούτε κυρίως στις διαθέσεις των μεμονωμένων επιστημόνων. Οσοι με τον έναν ή τον άλλο τρόπο βρεθούν στο μέλλον αντιμέτωποι με αρνητικές συνέπειες εφαρμογών της ΤΝ, ας το ξέρουν καλά: Δεν έφταιξε η τεχνολογία. Ο καπιταλισμός έφταιξε. Το κυνήγι του κέρδους ήταν η αιτία.