Η Ευρωπαϊκή Επιτροπή ανακοίνωσε σήμερα την έναρξη εργασιών για την ανάπτυξη ενός Κώδικα Δεοντολογίας σχετικά με τη σήμανση και την επισήμανση περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη. Η πρωτοβουλία αυτή εντάσσεται στο πλαίσιο εφαρμογής του Νόμου για την Τεχνητή Νοημοσύνη, ο οποίος απαιτεί τη σαφή επισήμανση περιεχομένου όπως τα deepfakes, τα κείμενα, οι εικόνες και άλλα συνθετικά εξερχόμενα που παράγονται από συστήματα τεχνητής νοημοσύνης.
Ο νόμος για την Τεχνητή Νοημοσύνη (AI Act) θέτει αυστηρές απαιτήσεις διαφάνειας για τους παρόχους και τους χρήστες συγκεκριμένων συστημάτων τεχνητής νοημοσύνης. Οι κανόνες αυτοί στοχεύουν στη μείωση των κινδύνων παραπληροφόρησης, απάτης, πλαστοπροσωπίας και εξαπάτησης των καταναλωτών, ενισχύοντας παράλληλα την εμπιστοσύνη στο οικοσύστημα πληροφοριών.
Η εναρκτήρια συνάντηση της Τετάρτης, στην οποία συμμετείχαν ανεξάρτητοι εμπειρογνώμονες που διορίστηκαν από το Ευρωπαϊκό Γραφείο Τεχνητής Νοημοσύνης, σηματοδοτεί την έναρξη μιας διαδικασίας διάρκειας επτά μηνών για τη σύνταξη του κώδικα. Οι εμπειρογνώμονες θα οδηγήσουν τη διαδικασία, λαμβάνοντας υπόψη τις απόψεις της δημόσιας διαβούλευσης και των ενδιαφερομένων φορέων που θα επιλεγούν μέσω ανοιχτής πρόσκλησης.
Ο επερχόμενος Κώδικας Δεοντολογίας για τη διαφάνεια του περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη θα αποτελεί προαιρετικό εργαλείο, το οποίο θα βοηθήσει τους παρόχους συστημάτων τεχνητής νοημοσύνης να εκπληρώσουν αποτελεσματικά τις υποχρεώσεις διαφάνειας που προβλέπει ο νόμος. Θα υποστηρίξει τη σήμανση του περιεχομένου που παράγεται από τεχνητή νοημοσύνη, συμπεριλαμβανομένου του συνθετικού ήχου, των εικόνων, των βίντεο και των κειμένων, σε μορφές που μπορούν να αναγνωριστούν από μηχανές, επιτρέποντας έτσι την ανίχνευσή τους. Ο Κώδικας θα βοηθήσει επίσης τους χρήστες που χρησιμοποιούν deepfakes ή άλλο περιεχόμενο που παράγεται από τεχνητή νοημοσύνη να αποκαλύπτουν σαφώς τη συμμετοχή της τεχνητής νοημοσύνης, ιδιαίτερα όταν ενημερώνουν το κοινό για θέματα δημόσιου ενδιαφέροντος.
Οι υποχρεώσεις αυτές θα τεθούν σε ισχύ από τον Αύγουστο του 2026, συμπληρώνοντας τους υπάρχοντες κανόνες για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου ή γενικής χρήσης.
ΚΥΠΕ









