Γυναίκες, Τεχνητή Νοημοσύνη και Βία: Ένα Νέο Ψηφιακό Πεδίο Ανισοτήτων
Μια μάχη σε εξέλιξη για τα δικαιώματα και την ασφάλειά τους
Η τεχνητή νοημοσύνη αναδιαμορφώνει σε βάθος τον τρόπο με τον οποίο η πληροφορία δημιουργείται, διαχέεται και προσλαμβάνεται. Παράλληλα όμως με τις νέες δυνατότητες που προσφέρει, η ταχύτατη εξάπλωση των εργαλείων AI συνοδεύεται από μια αυξανόμενη πρόκληση: την ένταση και τη συστηματοποίηση της παραπληροφόρησης.
Στο επίκεντρο αυτής της τάσης βρίσκονται συχνά οι γυναίκες, οι οποίες πλήττονται σε δυσανάλογο βαθμό. Προ τούτο, η μάχη για την αλήθεια στο διαδίκτυο είναι, περισσότερο από ποτέ, μια μάχη για τα δικαιώματα και την ασφάλεια τους.
Από τα deepfakes και τα παραποιημένα οπτικοακουστικά αρχεία έως τη στοχευμένη διάδοση ψευδών αφηγήσεων, η τεχνητή νοημοσύνη έχει καταστήσει την παραπληροφόρηση πιο πειστική, ταχύτερη και πιο δύσκολα ανιχνεύσιμη.
Τεχνολογικά Διευκολυνόμενη Βία: Παγκόσμια Πρόκληση για τις Γυναίκες
Η τεχνολογική επανάσταση προσέφερε στις γυναίκες νέα εργαλεία για δικτύωση, δράση και ακτιβισμό, ταυτόχρονα, ωστόσο, δημιούργησε έναν νέο «χώρο» για τη βία.
Πρόσφατη έκθεση των Ηνωμένων Εθνών, η “Global Trends to Prevent and Respond to Technology–Facilitated Violence against Women and Girls“, κρούει τον κώδωνα του κινδύνου για την κλιμάκωση της ψηφιακής βίας. Με τον όρο τεχνολογικά διευκολυνόμενη βία περιγράφεται κάθε μορφή βίας που ασκείται ή επιτείνεται μέσω ψηφιακών μέσων, όπως τα κοινωνικά δίκτυα, οι εφαρμογές μηνυμάτων και οι έξυπνες συσκευές. Δεν περιορίζεται μόνο στο διαδίκτυο, καθώς εργαλεία όπως τα GPS ή οι έξυπνες κάμερες χρησιμοποιούνται για την παρακολούθηση και τον έλεγχο των γυναικών στον φυσικό κόσμο.
Τα ευρήματα της έκθεσης σοκάρουν:
- Ευρεία Εξάπλωση: Τα ποσοστά επικράτησης της ψηφιακής βίας στις γυναίκες κυμαίνονται από 16% έως 58% παγκοσμίως.
- Στόχος η Νέα Γενιά: Οι γυναίκες των γενεών Gen Z και Millennials διατρέχουν τον μεγαλύτερο κίνδυνο.
- Εκρηκτική Άνοδος: Το 2024 καταγράφηκε αύξηση 192% στις αναφορές για διαδικτυακή παγίδευση (enticement).
Πρόσθετα, η έκθεση καταγράφει ένα ευρύ φάσμα εγκληματικών συμπεριφορών:
- Cyberstalking & Doxing: Διαδικτυακή παρενόχληση και δημοσιοποίηση προσωπικών δεδομένων χωρίς συγκατάθεση.
- NCII (Non-consensual Intimate Image abuse): Η κοινοποίηση προσωπικών στιγμών ως μέσο εκβιασμού ή εξευτελισμού.
- Έμφυλη Παραπληροφόρηση: Η χρήση της AI για τη διάδοση ψευδών ειδήσεων με σκοπό τη φίμωση γυναικών σε θέσεις ευθύνης (πολιτικών, δημοσιογράφων, ακτιβιστριών).
Deepfakes: Όταν η Τεχνητή Νοημοσύνη γίνεται εργαλείο έμφυλης βίας
Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης στην παραγωγή εικόνας και βίντεο έχει ανοίξει νέους δημιουργικούς δρόμους, αλλά ταυτόχρονα έχει γεννήσει μια επικίνδυνη μορφή ψηφιακής κακοποίησης. Τα deepfakes εξελίσσονται σε ένα από τα πιο ανησυχητικά εργαλεία έμφυλης βίας, με τις γυναίκες να βρίσκονται συστηματικά στο επίκεντρο.
Τα δεδομένα είναι αποκαλυπτικά: έρευνες δείχνουν ότι περίπου το 96% των deepfake βίντεο που κυκλοφορούν στο διαδίκτυο περιλαμβάνουν μη συναινετικό πορνογραφικό περιεχόμενο, με τα θύματα να είναι σχεδόν αποκλειστικά γυναίκες.
Οι επιπτώσεις είναι βαθιές και διαρκείς. Το φαινόμενο δεν περιορίζεται σε δημόσια πρόσωπα ή celebrities. Καθημερινές γυναίκες – φοιτήτριες, εργαζόμενες, επαγγελματίες – γίνονται στόχος ψηφιακού εκβιασμού και δημόσιας διαπόμπευσης, με σοβαρές συνέπειες για την ψυχική υγεία, την επαγγελματική τους πορεία και την κοινωνική τους ζωή.
Η Τεχνητή Νοημοσύνη “Οπλίζει” τη Βία κατά των Γυναικών στη Δημόσια Σφαίρα
Η Τεχνητή Νοημοσύνη χρησιμοποιείται συστηματικά κατά των γυναικών που δραστηριοποιούνται στη δημόσια σφαίρα. Σύμφωνα με τη νέα έκθεση των Ηνωμένων Εθνών, με τίτλο “Tipping Point: The chilling escalation of violence against women in the public sphere in the age of AI”, η χρήση της Τεχνητής Νοημοσύνης και η ατιμωρησία των δραστών απειλούν πλέον άμεσα όχι μόνο τη ζωή των γυναικών, αλλά και την ίδια τη δημοκρατία.
Στο πλαίσιο της έρευνας, που διεξήχθη σε 119 χώρες, αποκαλύπτει μια ζοφερή πραγματικότητα για τις γυναίκες δημοσιογράφους, ακτιβίστριες και υπερασπίστριες των ανθρωπίνων δικαιωμάτων:
- 7 στους 10 (70%) γυναίκες σε δημόσιους ρόλους έχουν υποστεί διαδικτυακή βία λόγω της εργασίας τους.
- Το 42% των γυναικών δημοσιογράφων αναφέρει ότι η διαδικτυακή βία μεταφέρθηκε στον φυσικό κόσμο με επιθέσεις, παρενοχλήσεις ή σωματική βία, ένα ποσοστό που υπερδιπλασιάστηκε σε σχέση με το 2020 (20%).
- Το 1/4 των ερωτηθέντων (24%) έχει ήδη βρεθεί αντιμέτωπο με βία που υποβοηθείται από την Τεχνητή Νοημοσύνη (deepfakes, παραποιημένο περιεχόμενο).
Αλγοριθμική Προκατάληψη: Όταν η AI «μαθαίνει» σεξισμό
Το ζήτημα εντοπίζεται ήδη στο στάδιο του σχεδιασμού των συστημάτων. Τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται σε τεράστιους όγκους διαδικτυακών δεδομένων, τα οποία συχνά ενσωματώνουν και αναπαράγουν έμφυλα στερεότυπα που είναι βαθιά ριζωμένα στην κοινωνία.
Το λεγόμενο «χάσμα της μηχανικής μάθησης» έχει αναδειχθεί μέσα από έρευνες κορυφαίων ακαδημαϊκών ιδρυμάτων. Οι μελέτες τους δείχνουν ότι συστήματα αναγνώρισης προσώπου, αλλά και αλγόριθμοι που χρησιμοποιούνται σε διαδικασίες προσλήψεων, εμφανίζουν σημαντικά υψηλότερα ποσοστά σφάλματος όταν αξιολογούν γυναίκες, με το πρόβλημα να είναι εντονότερο για τις έγχρωμες γυναίκες.
Παράλληλα, τα έμφυλα στερεότυπα αναπαράγονται και σε πιο «αθώες» εφαρμογές της τεχνητής νοημοσύνης. Όταν ζητείται από ένα σύστημα AI να απεικονίσει έναν «ηγέτη» ή έναν «επιστήμονα», τα αποτελέσματα είναι συχνά ανδροκεντρικά, ενισχύοντας παρωχημένες αντιλήψεις για το φύλο και την εξουσία αντί να τις αμφισβητούν.
Επιπτώσεις στη δημοκρατία και στον δημόσιο διάλογο
Η στοχοποίηση των γυναικών μέσω AI-driven παραπληροφόρησης έχει ευρύτερες κοινωνικές συνέπειες. Όταν οι γυναίκες αποσύρονται από τον ψηφιακό δημόσιο χώρο λόγω επιθέσεων ή φόβου, ο δημόσιος διάλογος γίνεται φτωχότερος και λιγότερο αντιπροσωπευτικός.
Η Ευρωπαϊκή Ένωση έχει αναγνωρίσει τον κίνδυνο αυτό, επισημαίνοντας ότι η παραπληροφόρηση και η κατάχρηση της τεχνητής νοημοσύνης μπορούν να υπονομεύσουν την εμπιστοσύνη στους θεσμούς και τη δημοκρατική συμμετοχή.
Ψηφιακή Βία: Γιατί η Καταγραφή της Παραμένει το «Μεγάλο Αγκάθι»
Παρότι η βία κατά των γυναικών, η οποία διευκολύνεται από την τεχνολογία, λαμβάνει τεράστιες διαστάσεις, οι αρχές και οι οργανισμοί βρίσκονται αντιμέτωποι με ένα δυσεπίλυτο πρόβλημα: την έλλειψη αξιόπιστων και ενοποιημένων δεδομένων.
Νέα έκθεση του Συμβουλίου της Ευρώπης, με τίτλο “Collecting Data On Technology – Facilitated Violence Against Women: Challenges and Ways Forward”, αναλύει τα εμπόδια που εμποδίζουν την πλήρη χαρτογράφηση του φαινομένου και προτείνει λύσεις για μια πιο αποτελεσματική προστασία των θυμάτων.
Στο πλαίσιο της έκθεσης εντοπίζονται τέσσερις κρίσιμοι παράγοντες που θέτουν σοβαρά εμπόδια στις αρχές:
- Υποαναφορά (Under-reporting): Πολλά θύματα δεν καταγγέλλουν τα περιστατικά λόγω φόβου, ντροπής ή της πεποίθησης ότι η αστυνομία δεν διαθέτει τα εργαλεία να βοηθήσει.
- Ανομοιογένεια στα Συστήματα Καταγραφής: Η αστυνομία, η δικαιοσύνη και οι ΜΚΟ χρησιμοποιούν διαφορετικές μεθόδους ταξινόμησης, με αποτέλεσμα τα δεδομένα να μην «επικοινωνούν» μεταξύ τους.
- Η «Σιωπή» των Τεχνολογικών Κολοσσών: Οι πλατφόρμες κοινωνικής δικτύωσης συλλέγουν τεράστιο όγκο δεδομένων, αλλά η πρόσβαση των ερευνητών και των αρχών σε αυτά παραμένει εξαιρετικά περιορισμένη λόγω της προστασίας της ιδιωτικότητας ή εμπορικών συμφερόντων.
- Η Ταχύτητα της Τεχνολογίας: Οι μορφές της ψηφιακής βίας αλλάζουν ταχύτερα από ό,τι οι γραφειοκρατικές διαδικασίες καταγραφής τους
Το Συμβούλιο της Ευρώπης υπογραμμίζει ότι η Σύμβαση της Κωνσταντινούπολης αποτελεί το βασικό εργαλείο, καθώς επιβάλλει στα κράτη μέλη τη συλλογή στατιστικών δεδομένων σε τακτά χρονικά διαστήματα, ώστε να διαμορφώνονται πολιτικές βασισμένες σε πραγματικά στοιχεία.
Παράλληλα προτείνει για να σπάσει ο φαύλος κύκλος της αόρατης βία:
- Εναρμονισμένη Μεθοδολογία: Ανάπτυξη κοινών δεικτών για την ψηφιακή βία σε όλη την Ευρώπη.
- Εκπαίδευση των Αρχών: Εξειδίκευση των αστυνομικών και δικαστικών αρχών στην αναγνώριση των ψηφιακών ιχνών της βίας.
- Συνεργασία με τον Ιδιωτικό Τομέα: Δημιουργία πρωτοκόλλων για την παροχή δεδομένων από τις πλατφόρμες σε περιπτώσεις έμφυλης βίας.
- Εστίαση στο Θύμα: Σχεδιασμός συστημάτων καταγραφής που δεν επανατραυματίζουν το θύμα κατά τη διάρκεια της καταγγελίας.
Προς μια Συμπεριληπτική Διακυβέρνηση της Τεχνητής Νοημοσύνης
Η αντιμετώπιση της παραπληροφόρησης στην εποχή της Τεχνητής Νοημοσύνης απαιτεί πολιτικές με έμφυλη οπτική.
Διεθνείς οργανισμοί και ειδικοί τονίζουν την ανάγκη για:
- Νομοθεσία (AI Act): Εφαρμογή αυστηρών κανόνων στην ΕΕ για τη σήμανση του AI περιεχομένου και την ποινικοποίηση της κακόβουλης χρήσης deepfakes.
- Ψηφιακός Εγγραμματισμός: Εκπαίδευση των γυναικών και των κοριτσιών στην αναγνώριση της παραπληροφόρησης (Fact-checking tools).
- Περισσότερες Γυναίκες στην AI: Μόνο το 22% των επαγγελματιών AI παγκοσμίως είναι γυναίκες. Η αύξηση της συμμετοχής τους στον σχεδιασμό των αλγορίθμων είναι ο μόνος τρόπος να εξαλειφθεί η προκατάληψη στη ρίζα της.
Εν κατακλείδι
Η τεχνητή νοημοσύνη ανοίγει σημαντικούς δρόμους για καινοτομία και κοινωνική πρόοδο. Ωστόσο, χωρίς σαφείς κανόνες, διαφάνεια και έμφυλη οπτική στον σχεδιασμό της, ελλοχεύει ο κίνδυνος να μετατραπεί σε έναν νέο μηχανισμό αναπαραγωγής ανισοτήτων εις βάρος των γυναικών.
Η αντιμετώπιση της παραπληροφόρησης και των έμφυλων προκαταλήψεων στον ψηφιακό χώρο δεν αποτελεί μόνο τεχνολογική πρόκληση, αλλά θεμελιώδες ζήτημα δημοκρατίας και ανθρωπίνων δικαιωμάτων.
Στη σύγχρονη εποχή η τεχνολογία οφείλει να λειτουργεί ως εργαλείο ενδυνάμωσης και προστασίας των γυναικών, όχι ως εμπόδιο στην ισότητα και τη συμμετοχή τους στον δημόσιο χώρο.
Με πληροφορίες από United Nations και Council of Europe


