Αρχική Ειδήσεις Ε.Ε.: Αλλαγές μεν αλλά.. για κανόνες στην τεχνητή νοημοσύνη

Ε.Ε.: Αλλαγές μεν αλλά.. για κανόνες στην τεχνητή νοημοσύνη

Επιφανειακή και επουσιώδης θα μπορούσε να χαρακτηρισθεί η συζήτηση που ξεκίνησε στους κόλπους της Ε.Ε. για την τεχνητή νοημοσύνη.
0
ΕΥΡΩΚΟΙΝΟΒΟΥΛΙΟ
ΕΥΡΩΚΟΙΝΟΒΟΥΛΙΟ DW
Διαφήμιση

Κι αυτό γιατί, οι όποιες συζητήσεις της Ευρωπαϊκής Ένωσης, όπως αποτυπώθηκαν μέσα από το συμβούλιο του Ευρωκοινοβουλίου περιορίστηκαν σε μία επιφανειακή προσέγγιση γύρω από τους κανόνες που διέπουν την τεχνητή νοημοσύνη και την χρήση της.

Σύνταξη: ecozen.gr

Βέβαια, οι ευρωβουλευτές συμφώνησαν να προχωρήσουν σε αλλαγές με σχέδιο νόμου για τους κανονισμούς που θα διέπουν την Τεχνητή Νοημοσύνη, ωστόσο χαρακτηριστική ήταν η δήλωση του Επίτροπου Βιομηχανίας της ΕΕ: «Δεν είναι τώρα η ώρα να πατήσουμε το “pause”». 

Συγκεκριμένα, οι ευρωβουλευτές συμφώνησαν σε αλλαγές σε σχέδιο νόμου για τους κανόνες που θα πρέπει να διέπουν την τεχνητή νοημοσύνη (AI) το οποίο πρότεινε η Ευρωπαϊκή Επιτροπή στην προσπάθεια δημιουργίας παγκόσμιων προτύπων για μια τεχνολογία που χρησιμοποιείται παντού από τα αυτοματοποιημένα εργοστάσια μέχρι αυτοματοποιημένες εφαρμογές όπως το ChatGPT.

Οι ευρωβουλευτές θα πρέπει τώρα να συζητήσουν τις λεπτομέρειες με τις χώρες της Ευρωπαϊκής Ένωσης προτού οι κανόνες γίνουν νόμος.

“Η ΑΙ εγείρει πολλά ερωτήματα — κοινωνικά, ηθικά, οικονομικά. Αλλά δεν είναι τώρα η ώρα να πατήσουμε το ‘pause’. Αντίθετα, το θέμα είναι να δράσουμε γρήγορα και να αναλάβουμε την ευθύνη”, δήλωσε ο Επίτροπος Βιομηχανίας της ΕΕ Τιερί Μπρετόν.

Το μεγαλύτερο ζήτημα αναμένεται να είναι η αναγνώριση προσώπου και η βιομετρική επιτήρηση, όπου μερικοί ευρωβουλευτές θέλουν πλήρη απαγόρευση, ενώ χώρες της ΕΕ θέλουν μια εξαίρεση για λόγους εθνικής ασφάλειας, άμυνας και στρατιωτικούς σκοπούς.

Το σχέδιο πάντως της Ε.Ε. επικεντρώνεται στις εξής κατευθύνσεις:

Στόχος των κανόνων είναι να καταστεί η τεχνητή νοημοσύνη ανθρωποκεντρική, αξιόπιστη και χωρίς επιβλαβείς επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα και τη δημοκρατία.

τεχνητή νοημοσύνη

Απαγόρευση πρακτικών

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής:

–  Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο ή εκ των υστέρων, σε δημόσιους χώρους

–  Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)

-Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)

–  Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα

·  Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Τεχνητή Νοημοσύνη

Τεχνητή νοημοσύνη υψηλού κινδύνου

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.

Υποχρεώσεις για τις γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά. Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων, ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Τεχνητή Νοημοσύνη

Στήριξη της καινοτομίας και προστασία των δικαιωμάτων των πολιτών

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα. Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Τέλος, οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν επίσης τον ρόλο που θα έχει το Γραφείο τεχνητής νοημοσύνης της ΕΕ, το οποίο θα παρακολουθεί την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.

 

Διαφήμιση