Ο Ευρωπαίος Επίτροπος Thierry Breton ζητά επιτακτικά νέους νόμους για την τεχνητή νοημοσύνη, έτσι ώστε να αντιμετωπιστούν οι κίνδυνοι του ChatGPT. Δύο μήνες μετά την κυκλοφορία του, το ChatGPT μπορεί να παράγει άρθρα, εκθέσεις, ανέκδοτα, ποιήματα και πολλά ακόμα, απλά με λίγες γραμμές κειμένου από το χρήστη.
Ειδικοί έχουν εκφράσει φόβους πως ένα τέτοιο σύστημα μπορεί να γίνει αντικείμενο κατάχρησης από επιτήδειους στους τομείς της λογοκλοπής, της απάτης και της διάδοσης παραπληροφόρησης.
Οι κίνδυνοι που φέρνει το ChatGPT – το “παιδί” της OpenAI, μιας ιδιωτικής εταιρίας που στηρίζεται από την Microsoft – και τα AI συστήματα, φέρνουν στο προσκήνιο την έκτακτη ανάγκη για κανόνες τους οποίους έχω προτείνει την τελευταία χρονιά για να θέσουμε ένα παγκόσμιο στάνταρ για την τεχνολογία. Όπως μας έχει δείξει το ChatGPT, οι λύσεις τεχνητής νοημοσύνης μπορούν να προσφέρουν μεγάλες ευκαιρίες για τις επιχειρήσεις και τους πολίτες, αλλά φέρνουν και ρίσκο. Για αυτό το λόγο θέλουμε ένα στιβαρό νομοθετικό πλαίσιο για να διασφαλίσουμε μία έμπιστη χρήση της AI βασισμένης σε υψηλής ποιότητας δεδομένα.
OpenAI και Microsoft δε σχολίασαν τις δηλώσεις του Breton.
Με τους προτεινόμενους κανονισμούς της Ευρωπαϊκής Ένωσης οι οποίοι βρίσκονται ακόμα υπό διαβούλευση, το ChatGPT θα θεωρηθεί ένα AI σύστημα γενικής χρήσης το οποίο μπορεί να χρησιμοποιηθεί ακόμα και για την επιλογή εργαζομένων για θέσεις εργασίας ή ακόμα και για τη βαθμολόγηση πελατών τραπεζών για την πιστοληπτική τους ικανότητα.
Μόνο το γεγονός πως η παραγωγική AI έχει μπει μόλις πρόσφατα ως όρος, δείχνει την ταχύτητα με την οποία αναπτύσσεται η τεχνολογία τη στιγμή που οι νομοθέτες πασχίζουν να την ακολουθήσουν.
Οι εταιρίες ανησυχούν πως η κατηγοριοποίηση της τεχνολογίας ως “υψηλού ρίσκου” θα σημάνει πως θα απαιτούνται αυστηρότερα πρότυπα και συμμόρφωση με νόμους που θα οδηγήσουν σε υψηλότερο κόστος. Μία έρευνα στην AI βιομηχανία δείχνει πως το 51% των εταιριών θεωρεί πως θα επέλθει μία επιβράδυνση της ανάπτυξης της AI εξαιτίας του AI act, του προτεινόμενου νομοθετικού πλαισίου για την τεχνητή νοημοσύνη. Την ίδια στιγμή, το 23% των εργαζομένων στην Ευρωπαϊκή Ένωση ανησυχεί πως το ChatGPT θα τους “κλέψει” τη δουλειά.
Οι άνθρωποι πρέπει να γνωρίζουν αν αλληλεπιδρούν με ένα chatbot ή έναν πραγματικό άνθρωπο. Η διαφάνεια είναι επίσης σημαντική στο θέμα του ρίσκου της προκατάληψης και των ψευδών πληροφοριών. Τα παραγωγικά AI μοντέλα εκπαιδεύονται με έναν τεράστιο όγκο κειμένων και εικόνων για να παράγουν μία σωστή απάντηση, οδηγώντας σε κατηγορίες παραβίασης πνευματικών δικαιωμάτων. Οι επικείμενες συζητήσεις με το Ευρωπαϊκό Συμβούλιο και την Ευρωβουλή για τους κανόνες της AI, θα καλύψουν αυτά τα ζητήματα.