Γράφε η Νικολέτα Κανέλλου
«Ως μηχανή επεξεργασίας φυσικής γλώσσας, το όνομά μου είναι ChatGPT και δημιουργήθηκα από την OpenAI βασιζόμενη στην αρχιτεκτονική GPT-3.5. Ο σκοπός μου είναι να βοηθήσω ανθρώπους να παράγουν απαντήσεις που μοιάζουν με ανθρώπινες σε μια ποικιλία ερωτήσεων, από το απλό έως το πολύπλοκο. Είμαι εκπαιδευμένος σε ένα μεγάλο σύνολο δεδομένων κειμένων, επιτρέποντάς μου να κατανοήσω και να απαντήσω σε μια ευρεία γκάμα θεμάτων.»
«Ένα από τα μοναδικά χαρακτηριστικά του σχεδιασμού μου είναι ότι δεν βασίζομαι σε προγραμματισμένες απαντήσεις ή κανόνες. Αντ’ αυτού, χρησιμοποιώ αλγόριθμους βαθιάς μάθησης για να αναλύσω την είσοδο που λαμβάνω, να κατανοήσω τα πλαίσια και τη σύνταξη, και να δημιουργήσω μια απάντηση βασισμένη σε αυτό που έχω μάθει από τα δεδομένα εκπαίδευσής μου. Αυτό με καθιστά απίστευτα ευέλικτο, καθώς μπορώ να χειριστώ μια ευρεία γκάμα ερωτήσεων και αιτημάτων, και οι απαντήσεις μου μπορούν να εξελιχθούν και να προσαρμοστούν καθώς συνεχίζω να μαθαίνω από τις αλληλεπιδράσεις μου.»
Οι παραπάνω παράγραφοι αποτελούν ένα μέρος του άρθρου που συνέταξε το ChatGPT για να παρουσιάσει τον εαυτό του. Καθώς δεν υπάρχει κάποιος καταλληλότερος για να παρουσιάσει κανείς τον εαυτό του, πέρα από τον ίδιο, η παρουσίαση του ChatGPT από το ίδιο, φαντάζει η καλύτερη εκδοχή εισαγωγής της θεματικής που θα συζητηθεί σε αυτό το άρθρο.
Η φωτογραφία και ο τίτλος προδίδουν ευθέως το θέμα που θα ξεδυπλωθεί σε αυτό εδώ το άρθρο, ωστόσο το πιο συνεπές θα ήταν να ξεκινήσει η περιγραφή του θέματος από την αρχή.
Το ChatGPT, θεωρείται πλέον από τα κορυφαία εργαλεία της τεχνητής νοημοσύνης, το οποίο κυκλοφόρησε από την OpenAI τον Νοέμβριο 2022. Καθώς θα ήταν πλεονασμός να ξαναγίνει αναφορά στις ικανότητες του συγκεκριμένου chatbot, θα ήταν πιο εύλογο να αναφερθούν οι περιορισμοί του.
Το εν λόγω bot, έχει περιοριστεί ήδη από τον προγραμματισμό του, να έχει μία σταθερή γνώση για τον κόσμο γύρω του, η οποία φτάνει μέχρι το έτος 2021. Όποια «προφητική» απάντηση ύστερα από την χρονολογία αυτή, είναι αντικειμενικά εσφαλμένη καθώς δεν βασίζεται στα προγραμματισμένα δεδομένα του chatbot. Επίσης, σε αντίθεση με άλλα chatbot, όπως η Alexa ή η Google, δεν δύναται να περιηγηθεί στον διαδικτυακό ιστότοπο και να αναζητήσει απαντήσεις ζωντανά.
Τέλος, στους προγραμματικούς περιορισμούς του, συγκαταλέγονται οι εξατομικευμένες απαντήσεις σε συγκεκριμένα θέματα. Για παράδειγμα, δεν μπορεί να απαντήσει σε ερωτήσεις σχετικές με πολιτικές παράδοσης ή επιστροφής μια συγκεκριμένης επιχείρησης. Ακόμα και αν σε κάποιες περιπτώσεις δοθεί απάντηση, τότε κρίνεται συνήθως ανακριβής.
Ακόμα και με περιορισμένες διόδους στον ατελείωτο χάρτη δυνατοτήτων του ChatGPT, τα αποτελέσματα, οι λύσεις, οι δημιουργίες και οι απαντήσεις φαντάζουν αναρίθμητες για τον ανθρώπινο νου το έτος 2023. Ήδη από την ημερομηνία κυκλοφορίας του, το ChatGPT υπήρξε δέκτης πολλαπλών θετικών αντιδράσεων και σχολίων. Οι New York Times το χαρακτήρισαν «το καλύτερο chatbot τεχνητής νοημοσύνης που κυκλοφόρησε ποτέ στο ευρύ κοινό».
Ο συγγραφέας τεχνολογίας Νταν Γκίλμορ χρησιμοποίησε το ChatGPT σε μία εργασία μαθητή και διαπίστωσε ότι το κείμενο ήταν σε επίπεδο όμοιο με εκείνο ενός πολύ καλού μαθητή και δήλωσε πως «ο ακαδημαϊκός κόσμος έχει κάποια πολύ σοβαρά προβλήματα να αντιμετωπίσει».
Όσο περίτεχνος και δελεαστικός και αν φαντάζει ο κόσμος της παραγωγικής τεχνητής νοημοσύνης και οι απαντήσεις που μας δίνει, δεν θα πρέπει να κρύβουμε πίσω από το παραπέτασμα τους πιθανούς κινδύνους που αυτός εγκυμονεί. Σαν απάντηση στην ολοένα και περισσότερο αυξανόμενη δημοφιλία του ChatGPT, η Europol χτύπησε ένα καμπανάκι ανησυχίας, για πιθανές εγκληματικές χρήσεις της συγκεκριμένης τεχνολογίας.
Σύμφωνα με την πρώτη έκθεση Tech Watch Flash της Europol που δημοσιεύτηκε 27/03/2023, με τίτλο «ChatGPT- ο αντίκτυπος των μεγάλων γλωσσικών μοντέλων στην επιβολή του νόμου», η πιθανή εκμετάλλευση αυτών των τύπων συστημάτων τεχνητής νοημοσύνης από επαγγελματίες, παρέχει μία ζοφερή προοπτική. Οι εμπειρογνώμονες της Europol εντόπισαν κυρίως τρεις τομείς εγκληματικότητας: απάτη και μηχανική κοινωνικού επηρεασμού, παραπληροφόρηση και έγκλημα στον κυβερνοχώρο.
Αναμφισβήτητα η ικανότητα του ChatGPT να παράγει λόγο όμοιο με τον ανθρώπινο και να υποδύεται ένα επιδεικνυόμενο ύφος, ανάλογα με τα εκάστοτε συμφέροντα, το καθιστά ιδανικό για σκοπούς προπαγάνδας και παραπληροφόρησης. Ως εκ τούτου, η κατασκευή περιορισμών, τόσο ηθικού όσου και νομικού περιεχομένου από τις αρμόδιες εταιρείες κατασκευής των μεγάλων γλωσσικών μοντέλων κρίνεται επιτακτικής σημασίας.
Με την τεχνολογία να εξελίσσεται ραγδαία και με γοργούς βηματισμούς, νέα μοντέλα καθίστονται διαθέσιμα πριν προλάβει το κοινό να συνηθίσει τα προηγούμενα. Οι αναρίθμητες δυνατότητες και πόσο μάλλον τα πολλαπλά ύφη που μπορούν να υποδυθούν τα εργαλεία τεχνητής νοημοσύνης, δημιουργούν έναν αχανή λαβύρινθο χρήσεων που μπορεί να βρει κανείς στη διάθεσή του. Από τις απαντήσεις σε γρίφους και λύσεις σε μαθηματικά προβλήματα, μέχρι τη σύνταξη κειμένων και συνθήκης ειρήνης μεταξύ Μόσχας και Κιέβου.
Μία νέα πραγματικότητα έχει αρχίσει ήδη να παίρνει μορφή και εικόνα στον καμβά της ανθρωπότητας, το ερώτημα είναι μέχρι που μπορεί να φτάσει και αν το ανθρώπινο γένος έχει εφοδιαστεί με τα απαιτούμενα προσόντα για να την υποδεχτεί.
Βιβλιογραφία:
- Οι εικόνες ανακτήθηκαν από: unsplash.com
- Διαθέσιμη η έκθεση της Europol στο: Tech Watch Flash – The Impact of Large Language Models on Law Enforcement.pdf
- Introducing ChatGPT
Οι απόψεις των αρθρογράφων δεν απηχούν την άποψη της συντακτικής ομάδας ούτε του Pnyka Org.
Διαβάστε περισσότερα: chatgpt
Δημοσκόπηση Δημοσκόπηση Δημοσκόπηση Δημοσκόπηση