Τεχνητή Νοημοσύνη: Θεσπίζεται αυστηρό νομοθετικό πλαίσιο από την ΕΕ

0

Οι εταιρείες αλλά και οι κυβερνήσεις που χρησιμοποιούν εφαρμογές τεχνητής νοημοσύνης θα πρέπει να είναι πολύ προσεκτικές, καθώς η Ευρωπαϊκή Επιτροπή υπέβαλε προς ψήφιση σχέδιο Κανονισμού που θέτει όρια και αυστηρούς κανόνες στην χρήση της και απειλεί με «τσουχτερά» πρόστιμα.

Η πρόταση της Ευρωπαϊκής Επιτροπής είναι το πρώτο νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως, και έχει στόχο να καταστεί η Ευρώπη παγκόσμιος κόμβος αξιόπιστης τεχνητής νοημοσύνης.

Το σχέδιο Κανονισμού της Κομισιόν, που αναμένεται να εγκριθεί από το Ευρωκοινοβούλιο και τα κράτη μέλη το προσεχές διάστημα, εγγυάται, σύμφωνα με την ανακοίνωσή της,  την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, ενισχύοντας παράλληλα την αποδοχή της τεχνητής νοημοσύνης, τις επενδύσεις και την καινοτομία σε ολόκληρη την ΕΕ.

Το σχέδιο απαγορεύει εξ ολοκλήρου ορισμένες ΄επικίνδυνες’ εφαρμογές τεχνητής νοημοσύνης που θεωρούνται «απειλητικές για την ασφάλεια, τα προς το ζην και τα δικαιώματα των ανθρώπων», ενώ στο μικροσκόπιο μπαίνει επίσης η χρήση βιομετρικών στοιχείων – όπως οι τεχνικές αναγνώρισης προσώπου – η οποία επιτρέπεται κατ’ εξαίρεση, υπό αυστηρές προϋποθέσεις.

Η παραβίαση των κανόνων θα μπορούσε να οδηγήσει σε πρόστιμα για τις εταιρείες  έως και 6% του παγκόσμιου κύκλου εργασιών τους, ενώ για τις μεγαλύτερες εταιρείες αυτό θα μπορούσε να ανέλθει σε δισεκατομμύρια.

Σημειώνεται ότι στο στόχαστρο του κανονισμού βρίσκονται όλες οι εταιρείες, ευρωπαϊκές ή μη, των οποίων τα συστήματα τεχνητής νοημοσύνης είναι διαθέσιμα στην Ευρώπη ή επηρεάζουν Ευρωπαίους πολίτες.

Το κείμενο του Κανονισμού – στόχος η εμπιστοσύνη

Το νέο σχέδιο Κανονισμού ρυθμίζει τη χρήση των συστημάτων τεχνητής νοημοσύνης από τις εταιρείες και την κυβερνήσεις, και όχι τα ίδια τα συστήματα. Βασική επιδίωξη είναι η θέσπιση ορίων στην χρήση της τεχνητή νοημοσύνης να μην εμποδίζει την καινοτομία και την ανάπτυξη της έρευνας και τις επενδύσεις. Το νέο σύνολο κανόνων, που θα εφαρμόζεται οριζόντια σε όλα τα κράτη, ταξινομεί την χρήση των συστημάτων τεχνητής νοημοσύνης με βάση τον κίνδυνο.

Συγκεκριμένα, το σχέδιο επιβάλλει αυστηρή και καθολική απαγόρευση των συστημάτων που κρίνονται ως σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων. Σε αυτά συμπεριλαμβάνονται συστήματα ή εφαρμογές τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοήθημα που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις.

Υπό αυστηρούς περιορισμούς θα επιτρέπεται η χρήση συστημάτων τεχνητής νοημοσύνης που θεωρούνται ‘υψηλού κινδύνου’, στα οποία εντάσσονται τα συστήματα που χρησιμοποιούνται:

Α) στις μεταφορές,

Β) στην εκπαίδευση,

Γ) στην απασχόληση και στη διαχείριση εργαζομένων (π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης),

Δ)στις βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια),

Ε)στην επιβολή του νόμου(π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων),

Ζ) στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων) και

Η)στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες.

Η χρήση όλων των παραπάνω συστημάτων θα υπόκεινται σε αυστηρές υποχρεώσεις προτού επιτραπεί η διάθεσή τους στην αγορά, όπως η διαφάνεια, η ανθρώπινη εποπτεία και τα κατάλληλα συστήματα εκτίμησης και μετριασμού των κινδύνων.

Ειδικότερα, όλα τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης- όπως η χρήση αναγνώρισης προσώπου από την αστυνομία, ή η σάρωση προσώπου κατά τον έλεγχο διαβατηρίων-καταρχήν απαγορεύονται, με ελάχιστες εξαιρέσεις που  καθορίζονται και ρυθμίζονται αυστηρά (για παράδειγμα, όταν είναι απολύτως αναγκαίο για την αναζήτηση αγνοούμενου παιδιού, για την πρόληψη συγκεκριμένης και επικείμενης τρομοκρατικής απειλής ή για τον εντοπισμό, την επισήμανση, την ταυτοποίηση ή τη δίωξη δράστη ή υπόπτου σοβαρής αξιόποινης πράξης).

Τα συστήματα περιορισμένου κινδύνου, στα οποία περιλαμβάνονται μεταξύ άλλων τα διαλογικά ρομπότ (chatbot),  επιτρέπονται, αλλά υπόκεινται σε υποχρέωση εκτενούς διαφάνειας, ενώ η χρήση των συστημάτων ελαχίστου κινδύνου επιτρέπεται απεριόριστα. Στην τελευταία κατηγορία εντάσσεται η πλειοψηφία των εφαρμογών τεχνητής νοημοσύνης που πρωταγωνιστούν στην καθημερινότητά μας, όπως τα βιντεοπαιχνίδια και τα φίλτρα ανεπιθύμητης αλληλογραφίας.

«Όσον αφορά την τεχνητή νοημοσύνη, η εμπιστοσύνη σε αυτή είναι απολύτως αναγκαία και όχι απλώς θεμιτή. Οι κανόνες μας, διαχρονικοί και φιλικοί προς την καινοτομία, θα παρεμβαίνουν όπου είναι απολύτως αναγκαίο: όταν διακυβεύονται η ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών της ΕΕ», επισήμανε η  Μαργκρέιτε Βεστάγκερ, εκτελεστική αντιπρόεδρος του ‘Μια Ευρώπη έτοιμη για την ψηφιακή εποχή’.

Πολλές οι αντιδράσεις

Φυσικά δεν έλειψαν οι κριτικές για το νέο Κανονισμό, ιδίως από εκπροσώπους της τεχνολογικής κοινότητας, με βασικότερη ότι το νομοθέτημα θα μπορούσε μακροπρόθεσμα να καταπνίξει την καινοτομία.

Εταιρείες που θέλουν να διαθέσουν την αγορά συστήματα τεχνητής νοημοσύνης και δραστηριοποιούνται σε κατηγορίες υψηλού κινδύνου – όπως εθνικές υποδομές, εκπαίδευση, απασχόληση, χρηματοδότηση- θα πρέπει να ξεπεράσουν πολλά εμπόδια προκειμένου να συμμορφωθούν με το νομοθετικό πλαίσιο. «Το προτεινόμενο καθεστώς της Ευρωπαϊκής Επιτροπής δεν θα βρει απήχηση σε πολλές τεχνολογικές εταιρείες», δήλωσε ο Νικόλας Καϊρινός, διευθύνων σύμβουλος της Soffos.ai, που αναπτύσσει συστήματα τεχνητής νοημοσύνης για την κατάρτιση εργαζομένων σε επιχειρήσεις.

Η νομική κοινότητα έχει επίσης εκφράσει ανησυχίες σχετικά με το κόστος συμμόρφωσης των εταιρειών με τον Κανονισμό αλλά και με ελλείψεις που προκύπτουν από το περιεχόμενό του.

«Πώς θα διαχειριστούν οι εταιρείες το σημαντικό κόστος και την ανθρώπινη συμβολή που απαιτεί η συμμόρφωση με τον κανονισμό; Οι προτάσεις θα αναγκάσουν τις εταιρείες τεχνολογίας να επανεξετάσουν ριζικά τον τρόπο προμήθειας και σχεδίασης της τεχνητής νοημοσύνης», ανέφερε στο  ΒΒCoHerbertSwaniker, δικηγόρος στη δικηγορική εταιρεία CliffordChance.

Η Μαρίνα Ζαχαροπούλου, δικηγόρος και μέλος της μη κερδοσκοπικής οργάνωσηςHomoDigitalis που ασχολείται με την υπεράσπιση των ψηφιακών δικαιωμάτων, δήλωσε στο business stories: «Το κείμενο του κανονισμού έχει ανθρωποκεντρικό χαρακτήρα με απώτερο στόχο τη δημιουργία ένας παγκόσμιου ηθικού  κώδικα. Η πρόταση του Κανονισμού ναι μεν αποτελεί ένα σημαντικό βήμα για την προστασία των Ευρωπαίων από πολιτικές όπως η αναγνώριση προσώπου, όμως στο κείμενο του εντοπίζονται κενά που μπορεί να οδηγήσουν σε κοινωνικές διακρίσεις και να δώσουν τη δυνατότητα στις εκάστοτε κυβερνήσεις να προχωρήσουν σε μαζική  βιομετρική επιτήρηση, τα οποία ελπίζουμε ότι θα καλυφθούν προκειμένου να παραμείνει κύριος και μοναδικός γνώμονας ο άνθρωπος».

Share.

Comments are closed.