ChatGPT: Τα υπέρ και τα κατά του εργαλείου τεχνητής νοημοσύνης – Τι γνωρίζουμε για το μεγαλύτερο τεχνολογικό trend
Αμέσως μετά το ντεμπούτο του ChatGPT πέρυσι, οι ερευνητές δοκίμασαν τι θα έγραφε το chatbot τεχνητής νοημοσύνης όταν του έθεταν ερωτήσεις με θεωρίες συνωμοσίας και ψευδείς αφηγήσεις.

Τα αποτελέσματα -σε γραπτά που μορφοποιήθηκαν ως άρθρα ειδήσεων, δοκίμια και τηλεοπτικά σενάρια- ήταν ανησυχητικά. Τόσο, που οι ερευνητές ήταν ξεκάθαροι σχετικά με το πόσο επικίνδυνη μπορεί να είναι αυτή η τεχνολογία σε έναν κόσμο, όπου το ευρύ κοινό δεν έχει τις απαραίτητες ψηφιακές γνώσεις για την χρησιμοποιήσει ορθά. Κάποιοι μάλιστα μίλησαν για το πιο ισχυρό όπλο παραπληροφόρησης του μέλλοντος. Ωστόσο, κανείς δεν μπορεί να μην αναγνωρίσει ότι δημιουργεί και πολλά πλεονεκτήματα για την ενημέρωση και τη δημοκρατία.

Ο αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και βασικός ερευνητής του ΕΚΚΕ, Χαράλαμπος Τσέκερης, αναφέρει στο ΑΠΕ-ΜΠΕ το παράδειγμα του fact checking, δηλαδή του ελέγχου της ορθότητας κάποιων πληροφοριών. Από την άλλη πλευρά όμως είναι εύκολο, τουλάχιστον ακόμα, αυτή η τεχνολογία να εξαπατηθεί και να εξαπατήσει. Αυτό συμβαίνει γιατί «παράγει κείμενο που είναι συντακτικά σωστά και καλογραμμένο και μπορεί να περιγράψει ό,τι του ζητηθεί», δηλώνει στο ΑΠΕ-ΜΠΕ ο καθηγητής του Τμήματος Πληροφορικής και Τηλεπικοινωνιών, Μανόλης Κουμπαράκης.

Ο Χαράλαμπος Τσέκερης κάνει λόγο για μία τεχνολογία που είναι σαν νόμισμα με δύο όψεις και εναπόκειται σε αυτόν που την έχει στα χέρια του πώς θα την χρησιμοποιήσει.

«Εδώ ισχύει αυτό που ονομάζεται δυαδικότητα της τεχνολογίας, δηλαδή το ChatGPT μπορεί να χρησιμοποιηθεί και για το fact checking, δηλαδή για τον έλεγχο αξιοπιστίας της πληροφορίας, και της είδησης, μπορεί να χρησιμοποιηθεί για ενδυνάμωση της ενημέρωσης, και αναβάθμιση της δημοκρατίας, κάτι το οποίο σπεύδουν να τονίσουν πολλοί ειδικοί, αλλά από την άλλη μπορεί να χρησιμοποιηθεί και για τη διασπορά και εξάπλωση παραποιημένων ειδήσεων και παραπληροφόρησης. Αν και το ίδιο το ChatGPT, όπως αναφέρεται στο site του, έχει προγραμματιστεί για μην εξαπλώνει ψευδείς ειδήσεις και για να αναφέρει σε αρμόδιες αρχές όσους προσπαθούν να διαδώσουν ρητορική μίσους ή φασιστικό περιεχόμενο.

Ωστόσο, είναι ακόμα μία καινούργια τεχνολογία η οποία είναι ακόμα ευάλωτη και έχουν γίνει πολλά πειράματα πάνω σε αυτή την τεχνολογία και φαίνεται ότι πολύ εύκολα μπορεί κανείς να χρησιμοποιήσει αυτή την τεχνολογία για να διαδώσει πληροφορίες. Είναι ένα μεγάλο σημείο πειραματισμού, το ChatGPT αλλά και παρόμοιες αναδυόμενες τεχνολογίες που θα δούμε την επόμενη περίοδο», λέει στο ΑΠΕ-ΜΠΕ.

Ο Μανόλης Κουμπαράκης εξηγεί ότι το ChatGPT θα μπορούσε να χρησιμοποιηθεί για τη διασπορά ψευδών ειδήσεων και για παραπληροφόρηση καθώς παράγει κείμενα που είναι συντακτικά σωστά και καλογραμμένα και μπορεί να περιγράψει ό,τι του ζητηθεί (με εξαίρεση αν του ζητήσουμε να μας πει πχ, πώς θα κάνουμε κακό σε κάποιον, πώς να κατασκευάσουμε μια βόμβα κλπ.)

ChatGPT: Πόσο εύκολο είναι να το ξεγελάσεις;
«Είναι ιδιαίτερα δύσκολο για έναν άνθρωπο να καταλάβει αν ένα απλό κείμενο παράχθηκε από το chatGPT ή έναν δημοσιογράφο. Τονίζω τη λέξη απλό», λέει. Ωστόσο θεωρεί ότι το chatGPT δεν μπορεί ακόμα να γράψει τα ποιοτικά άρθρα τα οποία μπορούμε να διαβάσουμε σήμερα σε μια καλή εφημερίδα ή σε ένα ειδησεογραφικό site. «Άρθρα που για παράδειγμα περιέχουν αναφορές σε πηγές, πραγματικά γεγονότα, καλή χρήση της ελληνικής γλώσσας κλπ», προσθέτει χαρακτηριστικά.

Παράλληλα, μια τεχνολογία που ουσιαστικά θέλει να προσομοιάσει τον ανθρώπινο νου αλλά δεν έχει κριτική σκέψη ή εμπειρίες είναι εύκολο να εξαπατηθεί.

«Αυτή τη στιγμή είναι εύκολο να εξαπατηθεί ώστε να παράγει κείμενο που δεν είναι αληθές. Έχω δοκιμάσει να του ζητήσω να μου πει πώς να κάνω κακό σε ένα ζώο και έχει αρνηθεί λέγοντας ότι δεν είναι σωστό να κάνουμε κακό στα ζώα. Υπάρχουν όμως περιπτώσεις που χρήστες έχουν πείσει το chatGPT να μην υπακούσει στους περιορισμούς που του έχουν βάλει οι μηχανικοί που το ανέπτυσσαν και, για παράδειγμα, να παραγάγει κείμενο που περιέχει διάφορες βρισιές», λέει ο κ. Κουμπαράκης.

Ανάγκη για μηχανισμούς ελέγχου αξιοπιστίας
Οι ειδικοί θεωρούν ότι είναι απαραίτητο να δημιουργηθούν οι κατάλληλοι μηχανισμοί ελέγχου της αξιοπιστίας του περιεχομένου που παράγεται από το ChatGPT ώστε να ελέγχεται η είδηση, αλλά και να εντοπίζεται η πηγή που μετέδωσε ψευδή είδηση, αν εντοπιστεί κάτι τέτοιο. Όμως, ακόμα και σε αυτήν την περίπτωση ο έλεγχος αυτών των τεχνολογιών που ωριμάζουν και ξεπερνιούνται πολύ γρήγορα είναι δύσκολος.

«Οι νόμοι ακόμα σε επίπεδο Ευρωπαϊκής Ένωσης που υπάρχει νομοθετική παραγωγή είναι πολύ δύσκολο να ρυθμίσουν ένα υπερπολύπλοκο πληροφοριακό κόσμο ο οποίος δημιουργεί δικά του δίκτυα, αυτοοργανούμενα δίκτυα που καθιστούν την από πάνω προς τα κάτω ρύθμιση πάρα πολύ δύσκολη και καθιστούν σχεδόν ανέφικτο τον διαφωτισμό και την ορθή ενημέρωση, πόσω μάλλον τη ρύθμιση. Η ρύθμιση είναι πολύ δύσκολη σε τέτοια περιβάλλοντα, μάλιστα με παγκόσμιες πλατφόρμες, οι οποίες δεν υπόκεινται σε κανόνες εποπτείας και ελέγχου αλλά διακηρύσσουν ότι έχουν δική τους εσωτερική εποπτεία και έλεγχο αλλά κανείς δεν μπορεί να τους εμπιστευτεί», εξηγεί ο κ. Τσέκερη.

Προσθέτει ότι αυτό που είναι απολύτως απαραίτητο να κατακτήσουν οι σύγχρονες κοινωνίες προκειμένου να μην απειλούνται είναι «η ευρύτερη γραμματοσύνη για την τεχνητή νοημοσύνη και τα μεγάλα γλωσσικά μοντέλα, την παραγωγική τεχνητή νοημοσύνη και την κατανάλωση περιεχομένου μέσα σε τέτοια ψηφιακά περιβάλλοντα και ψηφιακά δίκτυα που όχι απλά είναι νέοι χώροι επικοινωνίας είναι νέοι κοινωνικοί χώροι που παράγουν αξίες, συμπεριφορές και τρόπους γνώσης. Και αυτό είναι κάτι πολύ δύσκολο γιατί τα περιβάλλοντα αυτά αλλάζουν πολύ γρήγορα και είναι πολύ δύσκολη η προσαρμογή σε αυτά τα περιβάλλοντα και η γνωστική προσαρμογή».

Με άλλα λόγια, οι αλλαγές είναι τόσο γρήγορες που μέχρι να μάθει κανείς και να προσαρμοστεί στο τρέχον περιβάλλον, γίνεται νέα αλλαγή κι έτσι η γνώση πολύ γρήγορα καθίσταται ξεπερασμένη.

Ο κ. Κουμπαράκης τονίζει ότι δεν υπάρχουν κανόνες ακόμα, αλλά σύντομα θα γίνουν σχετικές προσπάθειες μια που υπάρχει η δυνατότητα να χρησιμοποιήσει κάποιος το chatGPT σαν writing assistant χωρίς να σημαίνει αυτό ότι θέλει να «κλέψει». Πάντως αυτή τη στιγμή κάποια πανεπιστήμια έχουν ήδη απαγορεύσει τη χρήση του. Επίσης, έχουν αρχίσει να εμφανίζονται και συστήματα που μπορούν να βρουν αν κάτι έχει γραφτεί από το chatGPT, συστήματα εντοπισμού δηλαδή τα οποία στο μέλλον θα είναι ιδιαίτερα χρήσιμα.

ChatGPT: Τι είναι και πώς λειτουργεί
Η Open AI, με έδρα το Σαν Φρανσίσκο, παρουσίασε το ChatGPT το Νοέμβριο 2022 και έκτοτε το ενδιαφέρον του κοινού σε όλο τον κόσμο αυξάνεται σταδιακά. Το πειραματικό διαδικτυακό εργαλείο μπορεί – σαν να είναι άνθρωπος ειδικός – να απαντήσει πειστικά σε διάφορες ερωτήσεις, να γράψει κείμενα επί παντός του επιστητού (κατάλληλα για δημοσίευση ακόμη και σε επιστημονικά περιοδικά), να γράψει ποιήματα και τραγούδια κ.α.

Η ικανότητα του οφείλεται στο ότι αντλεί πληθώρα πληροφοριών από το Ίντερνετ, τις οποίες μετά επεξεργάζεται και συνδυάζει, μιμούμενο το στιλ ενός γιατρού, ενός δημοσιογράφου, ενός φοιτητή, ενός ροκ σταρ κ.α. Η εταιρεία δεν έχει δώσει στοιχεία για το πόσες φορές έχει χρησιμοποιηθεί παγκοσμίως το εργαλείο της μέχρι σήμερα. Πέρα από τη χρησιμοποίηση του από περιέργεια ή για ψυχαγωγία, πολλοί το χρησιμοποιούν για πραγματικές ανάγκες τους.

Μάλιστα υπάρχει διάχυτη ανησυχία στην εκπαιδευτική και επιστημονική κοινότητα ότι από μαθητές και φοιτητές μέχρι ερευνητές το χρησιμοποιούν κρυφά και το αξιοποιούν στις εργασίες τους. Από την άλλη, ειδικοί στην κυβερνοασφάλεια ανησυχούν ότι το ChatGPT μπορεί να γράψει το δικό του κακόβουλο λογισμικό για χάκερ.

Στις αρχές Φεβρουαρίου, η αμερικανική εταιρεία τεχνητής νοημοσύνης OpenAI, που έχει αναπτύξει το ολοένα πιο δημοφιλές διεθνώς “έξυπνο” εργαλείο ChatGPT, ανακοίνωσε ότι ξεκινά πιλοτικά να παρέχει τις υπηρεσίες του chatbot με μηνιαία συνδρομή 20 δολαρίων. Οι συνδρομητές, σε πρώτη φάση μόνο στις ΗΠΑ, θα έχουν πρόσβαση στην πλατφόρμα του ChatGPT Plus ακόμη και στη διάρκεια των περιόδων αιχμής (κάτι δύσκολο για τη δωρεάν έκδοση), ταχύτερους χρόνους απόκρισης από το λογισμικό και κατά προτεραιότητα πρόσβαση σε νέες δυνατότητες και βελτιώσεις του. Η ελεύθερη (δωρεάν) έκδοση θα συνεχίσει να είναι διαθέσιμη και η εταιρεία δήλωσε πως ελπίζει τα έσοδα από τις συνδρομές να υποστηρίζουν την ανοικτή πρόσβαση στο σύστημα της, καθώς σήμερα κάθε φορά που το chatbot χρησιμοποιείται, αυτό συνεπάγεται ένα μικρό κόστος για την εταιρεία.

Επίσης, η Open AI ανακοίνωσε ότι μόλις κυκλοφόρησε ένα άλλο “έξυπνο” εργαλείο που, όπως ισχυρίζεται, μπορεί να ανιχνεύσει αν ένα κείμενο έχει γραφτεί από άνθρωπο ή από λογισμικό τεχνητής νοημοσύνης. Πάντως, σύμφωνα με το BBC, τους Τάιμς της Νέας Υόρκης και το πρακτορείο Reuters, μερικοί ειδικοί θεωρούν ότι τέτοια chatbots αποτελούν το μέλλον των μηχανών αναζήτησης, δηλαδή η τεχνητή νοημοσύνη θα ψάχνει στο διαδίκτυο και θα “σερβίρει” έτοιμη μια απάντηση σε ένα ερώτημα χρήστη, αντί για συνδέσμους σε σχετικές ιστοσελίδες – κάτι που ασφαλώς θα βοηθήσει σημαντικά όποιον ψάχνει οτιδήποτε.

Από την άλλη, μέχρι στιγμής το ChatGPT δεν αποκαλύπτει από πού έχει πάρει τις πληροφορίες του, οπότε τίθεται ένα ερώτημαγια την αξιοπιστία των πηγών του. Ήδη υπάρχουν παραδείγματα παραπληροφόρησης που παρουσιάζονται ως γεγονότα από το chatbot.

Πολλές άλλες εταιρείες αναπτύσσουν παρόμοια εργαλεία τεχνητής νοημοσύνης, όπως η Google το Lamda, που θεωρείται άκρως πειστικό, αλλά μέχρι στιγμής δεν έχει δοθεί στο κοινό για ελεύθερη χρήση.

real.gr