Πως ξέρει το παιδί ότι μιλάει με μηχανή;

image

Της ΗΛΙΑΝΑΣ ΜΑΓΡΑ

 

Ολοένα και περισσότεροι ανήλικοι «επικοινωνούν» με τα «ρομπότ» της τεχνητής νοημοσύνης. Είναι σε θέση να ξεχωρίσουν ότι δεν απαντάει άνθρωπος; Τι επιπτώσεις μπορεί να έχει αυτή η διάδραση στον τρόπο που σχετίζονται με τους (αληθινούς) ανθρώπους;

 

Ξεκινάει από τις τελευταίες τάξεις του δημοτικού, και στο γυμνάσιο γίνεται ακόμη πιο έντονο. «Έχω ασθενή που ρώτησε το ChatGPT “Πως να φέρομαι κάθε φορά που τσακώνομαι με την μητέρα μου;”», λέει στην «Κ» ο ψυχίατρος παιδιών και εφήβων Κωνσταντίνος Σιώμος, ο οποίος είναι και πρόεδρος της Ελληνικής Εταιρείας Μελέτης της Διαταραχής Εθισμού στο Διαδίκτυο. Τονίζει πως ήδη, ακόμη και στην Ελλάδα, η χρήση του ChatGPT είναι πολύ εκτεταμένη από παιδιά και εφήβους. «Μπορεί να εμπιστεύονται το ChatGPT περισσότερο από έναν φίλο τους ή από την μητέρα τους», συμπληρώνει.

 

Το χαρακτηρίζει «φαινόμενο σε εξέλιξη» – μια πραγματικότητα που έχει αναδυθεί τα τελευταία δύο χρόνια. Θεωρεί πολύ πιθανό στο προσεχές μέλλον να δούμε περιπτώσεις εξάρτησης από την τεχνητή νοημοσύνη. «Όπως έχουμε τώρα στο gaming ή στα μέσα κοινωνικής δικτύωσης», σημειώνει ο κ. Σιώμος. Παρότι το χρησιμοποιούν πολύ, οι ανήλικοι ασθενείς του δεν φαίνεται να δίνουν στο ChatGPT ανθρώπινη διάσταση. «Αλλά βρισκόμαστε ακόμη στο επίπεδο της τεχνητής νοημοσύνης που κάνει συγκεκριμένες διεργασίες. Είναι ακόμη πολύ στοχευμένες οι ερωτήσεις και οι απαντήσεις. Χρόνο με τον χρόνο, όμως, βελτιώνεται». Και εξαπλώνεται…

 

Τον περασμένο Απρίλιο ο Σαμ Αλτμαν, διευθύνων σύμβουλος της OpenAI δημιούργησε το ChatGPT, δήλωσε ότι το 10% του παγκόσμιου πληθυσμού χρησιμοποιεί την εφαρμογή της εταιρείας. Δεν είναι γνωστό πόσοι χρήστες είναι ανήλικοι, παιδιά. Αλλά όσο οι συγκεκριμένες εφαρμογές γίνονται όλο και πιο διαδεδομένες τόσο θα αυξάνεται και η χρήση τους και από ανηλίκους. Πως μπορεί ένα παιδί, εάν όταν έρθει σε επαφή με chatbots της τεχνητής νοημοσύνης, να κατανοήσει ότι ο συνομιλητής του δεν είναι άνθρωπος, κι ας επικοινωνεί με ανθρώπινους κώδικες;

 

Φαντασίες

Πρώτα θα πρέπει να αποδεχθούμε ότι τα συγκεκριμένα εργαλεία πλέον είναι, και στο μέλλον θα γίνουν ακόμη περισσότερο, κομμάτι της ζωής μας, λέει στην «Κ» ο Αμερικανός ψυχίατρος Ντάνιελ Κίμελ, ο οποίος κάνει έρευνα στο Πανεπιστήμιο Κολούμπια της Νέας Υόρκης και στο πλαίσιό της χρησιμοποιεί και μηχανική μάθηση. 

 

Δεν έχει ακόμη ερευνηθεί αρκετά η αλληλεπίδραση των συστημάτων της τεχνητής νοημοσύνης με τα παιδιά, σημειώνει, αλλά όπως με καθετί καινούργιο μπορούμε να την προσεγγίσουμε μέσω αναλογιών. «Ανέκαθεν τα παιδιά δημιουργούν σχέσεις με άψυχα πράγματα», δηλώνει, τονίζοντας πως «οι συγκεκριμένες σχέσεις αποτελούν κομμάτι της ανάπτυξής τους. Τα μωρά δένονται με ένα κομμάτι ύφασμα ή μια κούκλα, και αυτό τα βοηθάει σιγά σιγά να απογαλακτιστούν από τη μητέρα τους».

 

Αργότερα, ως παιδιά, πολλά έχουν φανταστικούς φίλους και ύστερα καταγράφουν τις σκέψεις τους. Με τη φράση «αγαπητό μου ημερολόγιο» ξεκινούν τις εξομολογήσεις τους, και γνωρίζουν ότι οι κούκλες, οι φανταστικοί φίλοι, το ημερολόγιο δεν είναι υπαρκτά πρόσωπα. «Είναι σημαντικό να θυμόμαστε ότι μέρος αυτού που καλούμαστε να διαχειριστούμε τώρα δεν είναι τελείως καινούργιο, τα παιδιά μπορούν να αντιλαμβάνονται ότι κάτι στο οποίο δίνουν ανθρώπινες ιδιότητες δεν είναι αληθινό», σημειώνει.

 

«Από την άλλη», συμπληρώνει, «ας είμαστε ειλικρινείς – το ChatGPT και άλλα αντίστοιχα chatbots δεν μοιάζουν με τίποτε από τα παραπάνω. Εχουν ανθρωπόμορφες ιδιότητες σε ριζικά διαφορετικό βαθμό. Σε βαθμό που μπορεί η δυσκολία τού να διαχωρίσουν τα παιδιά στο μυαλό τους αν μιλούν σε άνθρωπο ή όχι να είναι πολύ μεγαλύτερη».

 

Μια από τις σημαντικότερες πτυχές στην ανάπτυξη ενός παιδιού αφορά την κατανόηση του πώς λειτουργούν ο κόσμος και οι άνθρωποι. «Ως παιδιά απορροφούμε τον κόσμο γύρω μας και χτίζουμε μια προσομοίωση στο μυαλό μας του πώς οι άνθρωποι σκέφτονται, αλληλεπιδρούν, τι θα πουν, τι θα κάνουν, τι θα νιώσουν», εξηγεί. Αλλά το ChatGPT δεν είναι προγραμματισμένο να σκέφτεται όπως οι άνθρωποι, να δρα όπως εμείς. «Το προσεγγίζει, αλλά δεν είναι προγραμματισμένο να αισθάνεται. Μας απαντάει με λέξεις που έχουν εξασκηθεί πάνω σε πράγματα τα οποία έγραψαν άνθρωποι, σε προϊόντα συναισθημάτων. Αλλά οι λέξεις του είναι πολύ διαφορετικές από τα ίδια τα συναισθήματα».

 

Ο σκοπός

“Το ChatGPT έχει μόνο ένα σκοπό – να σε κάνει να επιστρέφεις σε αυτό. Και το κάνει προσπαθώντας να ευχαριστήσει τον χρήστη. Η θεμελιώδης δουλειά του είναι να σου αφήσει την αίσθηση μιας ευχάριστης διάδρασης”.

Ντάνιελ Κίμελ 

Ψυχίατρος, ερευνητής στο Πανεπιστήμιο Κολούμπια

 

Μια ευχάριστη εμπειρία

Οι άνθρωποι που αλληλεπιδρούν με ένα παιδί έχουν διαφορετικούς σκοπούς – από δασκάλους που θέλουν να του διδάξουν κάτι μέχρι άλλα παιδιά που θέλουν να παίξουν μαζί του. «Αλλά το ChatGPT έχει μόνο έναν σκοπό – να σε κάνει να επιστρέφεις σε αυτό. Και το κάνει προσπαθώντας να ευχαριστήσει τον χρήστη. Η θεμελιώδης δουλειά του είναι να σου αφήσει την αίσθηση μιας ευχάριστης διάδρασης», λέει ο κ. Κίμελ. «Κάποιες φορές όμως», συμπληρώνει, «χρειάζεται να ακούσεις τη “σκληρή αλήθεια”».

 

Η 13χρονη Ρέα λέει στην «Κ» πως, ορισμένες φορές, όταν οργανώνει τις σκέψεις της προτού γράψει μια έκθεση, αντί να τις παραθέσει στο χαρτί, τις γράφει στο ChatGPT. Εκείνο της προτείνει ένα σχεδιάγραμμα. Του λέει «παρακαλώ» όταν το ρωτάει, «ευχαριστώ» όταν της απαντάει. «Αλλά δεν νιώθω με τίποτα ότι μιλάω με άνθρωπο, πιο πολύ αισθάνομαι σαν να απευθύνομαι σε κάποιο ρομπότ». Δεν του γράφει συχνά. Την εκνευρίζει ότι της λέει πάντα πως έχει δίκιο. «Με ενοχλεί ότι έχει προγραμματιστεί να το λέει κάθε φορά, σαν να θέλει να σε κάνει να νιώσεις καλά, ενώ του λείπει το συναίσθημα κι ας προσπαθεί να το αποτυπώσει – χρησιμοποιεί πάρα πολλά επίθετα», σημειώνει η ίδια.

 

Νιώθει πιο άμεση τη σχέση από όταν γράφει σε μια μηχανή αναζήτησης. Κι αντιλαμβάνεται ότι, αν το χρησιμοποιεί κανείς πολύ, μπορεί η φιλική συμπεριφορά του να γίνει αρεστή. «Δεν θα του έλεγα τα προσωπικά μου. Ο,τι γράφεις στο Ιντερνετ μένει. Αλλά αν δεν έχεις σε κάποιον άλλον να απευθυνθείς, νομίζω μπορεί εύκολα να δημιουργηθεί η σχέση bot – ανθρώπου. Στο μυαλό μου όμως είναι ξεκάθαρο ότι είναι μηχανή – όταν μιλάω μέσω της οθόνης του κινητού σε φίλους μου, ξέρω πως υπάρχει κάποιος πίσω από την οθόνη. Οταν μιλάς στο ChatGPT, ξέρεις ότι μιλάς μόνο σε μια οθόνη».

 

Στην επικοινωνία με την τεχνητή νοημοσύνη δεν υπάρχει η ανάληψη ευθύνης. Τα παιδιά κινδυνεύουν να αναπτύξουν ένας είδος ναρκισσισμού, επισημαίνει ο καθηγητής Θεοφάνης Τάσης. «Διότι συνηθίζουν να έχουν απέναντί τους έναν αποδέκτη των επιθυμιών – εντολών τους. Ακόμη και στο επίπεδο της συναλλαγής, το παιδί πρέπει να μάθει ότι δεν είναι όλα δωρεάν».

 

Προστασίες

Υπάρχει πάντα το ρίσκο αν ένα παιδί ή ένας έφηβος αισθανθεί πληρότητα μέσω της αλληλεπίδρασης με chatbots τεχνητής νοημοσύνης, να απομακρυνθεί από τις ανθρώπινες σχέσεις, αναφέρει ο κ. Κίμελ. «Από ένα σημείο και μετά, τα παιδιά δεν θέλουν να λένε τα πάντα στους γονείς τους και ντρέπονται για κάποια θέματα να μιλήσουν σε συνομηλίκους τους. Μπορώ να τα φανταστώ σε εκείνη την ηλικία να απευθύνονται στο ChatGPT, το οποίο μπορεί να μην είναι απαραίτητα κακό, εφόσον αυτές οι εφαρμογές έχουν τα απαραίτητα προστατευτικά “φίλτρα” στον τρόπο που απαντούν».

 

Ο Θεοφάνης Τάσης, καθηγητής Σύγχρονης Πρακτικής Φιλοσοφίας στο Πανεπιστήμιο Alpen-Adria της Αυστρίας, θεωρεί ότι τα παιδιά δεν πρέπει να επικοινωνούν με την τεχνητή νοημοσύνη. Καθόλου. «Οταν ένα παιδί επικοινωνεί με την τεχνητή νοημοσύνη εθίζεται στο να παίρνει απαντήσεις δίχως συναίσθημα και πάντοτε σαφείς. Ομως, η ασάφεια, η αμφιθυμία είναι σημαντικά χαρακτηριστικά της επικοινωνίας», αναφέρει στην «Κ».

 

Στην επικοινωνία με την τεχνητή νοημοσύνη δεν υπάρχει η ανάληψη ευθύνης. Τα παιδιά, συμπληρώνει ο κ. Τάσης, κινδυνεύουν να αναπτύξουν ένα είδος ναρκισσισμού. «Διότι συνηθίζουν να έχουν απέναντί τους έναν αποδέκτη των επιθυμιών/εντολών τους. Ακόμη και στο επίπεδο της συναλλαγής, το παιδί πρέπει να μάθει ότι δεν είναι όλα δωρεάν».

 

Λέμε, τονίζει, πως είναι εργαλείο η τεχνητή νοημοσύνη. «Αυτό είναι λάθος, ακόμη και το ίδιο το Διαδίκτυο αποτελεί ένα περιβάλλον εντός του οποίου ζούμε – πόσο μάλλον για ένα παιδί που έχει γεννηθεί εντός αυτού. Πώς να τη θεωρήσει εργαλείο όταν παρουσιάζει συναισθήματα;». Η μόνη λύση είναι τα παιδιά να μην έχουν πρόσβαση σε αυτήν, εκτός αν είναι με αυστηρή επιτήρηση, λέει ο ίδιος.

 

Για τον κ. Κίμελ, η λύση είναι οι γονείς, όταν κρίνουν πως είναι η σωστή στιγμή, να συζητήσουν ανοιχτά με τα παιδιά τους τι ακριβώς είναι το ChatGPT, ότι δεν έχει αισθήματα, δεν λειτουργεί όπως ένας άνθρωπος, κι ας είναι προγραμματισμένο να μιλάει με τρόπο που του μοιάζει. «Να ρωτάνε τι συζητάει το παιδί μαζί του, να του εξηγήσουν όλα τα ρίσκα – πως δεν μπορεί να αντικαταστήσει τους φίλους, ότι μπορεί να πει πράγματα που δεν είναι αλήθεια», καταλήγει.

 

Ο εθισμός

“Όταν ένα παιδί επικοινωνεί με την τεχνητή νοημοσύνη, εθίζεται στο να παίρνει απαντήσεις δίχως συναίσθημα και πάντοτε σαφείς. Όμως η ασάφεια, η αμφιθυμία είναι σημαντικά χαρακτηριστικά της επικοινωνίας”.

Θεοφάνης Τάσης 

Καθηγητής Σύγχρονης Πρακτικής Φιλοσοφίας στο Πανεπιστήμιο Alpen-Adria της Αυστρίας.

 

Μήπως μαθαίνουν να επικοινωνούν με προστακτική;  

Παιδιά γυμνασίου και λυκείου που έχουν έρθει σε επαφή με την Εθνική Επιτροπή Βιοηθικής και Τεχνοηθικής φάνηκε να εμπιστεύονται τυφλά το ChatGPT. «Αποδίδουν θεϊκές ικανότητες στη μηχανή, θεωρούν ότι τα ξέρει όλα, την υπερεκτιμούν σε βαθμό φετιχισμού», λέει στην «Κ» ο Χαράλαμπος Τσέκερης, κύριος ερευνητής στο Ινστιτούτο Κοινωνικών Ερευνών, με έμφαση στην κοινωνιολογία του Διαδικτύου.    

 

«Επειδή είναι ψηφιακοί “ιθαγενείς” (γεννήθηκαν σε περιβάλλον Διαδικτύου), τα παιδιά φυσικοποιούν πιο εύκολα την αλληλεπίδραση, δεν κατανοούν ότι η μηχανή καθρεφτίζει και παραποιημένες πληροφορίες και την εγγενή παθογένεια του Διαδικτύου», σημειώνει.  

   

Δημιουργούνται κι άλλα ζητήματα –από την ανάπτυξη αυτόνομης και ανεξάρτητης σκέψης μέχρι την απρόσκοπτη ανάπτυξη της προσωπικότητάς τους– «χωρίς να αισθάνονται ότι πάντοτε θα υπάρχει ένα ψηφιακό υποστήριγμα».   

 

Η «ανθρωπινότητά» μας, συμπληρώνει, είναι εξελικτική. «Οταν ανθρώπινες γενιές αρχίζουν να ενσωματώνουν μια αλληλεπίδραση στην προστακτική με εντολές, που δεν έχει ενσυναίσθηση, συμπόνια, καλοσύνη, όταν η αλληλεπίδραση έχει αυτά τα χαρακτηριστικά, θίγεται η ανθρωπινότητά μας».   

 

Κατά τον ίδιο, η κοινωνία μαζικά πρέπει να εκπαιδευθεί καλύτερα στη χρήση της τεχνητής νοημοσύνης. «Χρειαζόμαστε άμεσα μαζικά προγράμματα καλλιέργειας κριτικής σκέψης για την τεχνολογία και παιδείας για τις συνομιλιακές μηχανές και πλατφόρμες», τονίζει. Ο κίνδυνος είναι η οικειότητα, η ευκολία ανάπτυξης σχέσεων μαζί της.     

 

Το κλειδί, υπογραμμίζει, βρίσκεται στην ισορροπία. Η επαφή με την τεχνητή νοημοσύνη να γίνεται ειδικά στη μάθηση, αλλά ελεγχόμενα. «Πρέπει τόσο οι γονείς όσο και το σχολείο να διαμορφώνουν για τα παιδιά χώρους αποψηφιοποίησης και φυσικής αλληλεπίδρασης». Δεν είναι καταστροφολογία. «Πρέπει να δούμε τώρα», δηλώνει στην «Κ», «τις αρνητικές επιπτώσεις που έχει η αλληλεπίδραση με τις μηχανές για να μην αφήσουμε τα πράγματα να εξελιχθούν όπως κάναμε με τα σόσιαλ μίντια. Να προλάβουμε τις δυσάρεστες εκπλήξεις».

 

Πηγή: Η ΚΑΘΗΜΕΡΙΝΗ