Η κατάσταση με το περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη έφτανε σε ένα «σημείο καμπής», αφοί οι αρχές δεν γνώριζαν αν μια εικόνα αφορούσε ένα πραγματικό παιδί που χρειαζόταν βοήθεια.
Το πλέον υπερσύγχρονο όπλο στα χέρια των παιδόφιλων έχει όνομα. Τεχνητή Νοημοσύνη.
Οι εικόνες σεξουαλικής κακοποίησης παιδιών που παράγονται από εργαλεία Τεχνητής Νοημοσύνης γίνονται όλο και πιο διαδεδομένες στον ανοιχτό ιστό και φτάνουν σε «σημείο καμπής», σύμφωνα με ένα παρατηρητήριο ασφαλείας.
Το Ίδρυμα Internet Watch Foundation δήλωσε ότι η ποσότητα παράνομου περιεχομένου που δημιουργήθηκε από τεχνητή νοημοσύνη και το οποίο είδε στο διαδίκτυο τους τελευταίους έξι μήνες έχει ήδη ξεπεράσει το σύνολο του προηγούμενου έτους, σύμφωνα με πληροφορίες από τον Guardian.
Επιδεινώνεται το πρόβλημα
Ο οργανισμός, ο οποίος διαχειρίζεται μια βρετανική τηλεφωνική γραμμή, αλλά έχει επίσης παγκόσμια εμβέλεια, δήλωσε ότι σχεδόν όλο το περιεχόμενο εντοπίστηκε σε δημόσια διαθέσιμες περιοχές του διαδικτύου και όχι στον σκοτεινό ιστό, στον οποίο πρέπει να έχουν πρόσβαση εξειδικευμένοι χρήστες.
Ο προσωρινός διευθύνων σύμβουλος της IWF, Derek Ray-Hill, δήλωσε ότι το επίπεδο πολυπλοκότητας των εικόνων υποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί σε εικόνες και βίντεο πραγματικών θυμάτων.
«Οι τελευταίοι μήνες δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται και στην πραγματικότητα επιδεινώνεται», δήλωσε.
Σύμφωνα με έναν αναλυτή του IWF, η κατάσταση με το περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη έφτανε σε ένα «σημείο καμπής», όπου οι παρατηρητές ασφάλειας και οι αρχές δεν γνώριζαν αν μια εικόνα αφορούσε ένα πραγματικό παιδί που χρειαζόταν βοήθεια.
Πώς χρησιμοποιούν την Τεχνητή Νοημοσύνη οι παιδόφιλοι
Το IWF ανέλαβε δράση κατά 74 αναφορών υλικού σεξουαλικής κακοποίησης παιδιών που δημιουργήθηκε από τεχνητή νοημοσύνη (CSAM) – το οποίο ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία – κατά τους έξι μήνες έως τον Σεπτέμβριο του τρέχοντος έτους, σε σύγκριση με 70 κατά τους 12 μήνες έως τον Μάρτιο. Μία και μόνο αναφορά θα μπορούσε να αναφέρεται σε μια ιστοσελίδα που περιέχει πολλές εικόνες.
Εκτός από τις εικόνες ΑΙ με πραγματικά θύματα κακοποίησης, οι τύποι υλικού που είδε το IWF περιλάμβαναν και βίντεο «deepfake» όπου η πορνογραφία ενηλίκων είχε παραποιηθεί ώστε να μοιάζει με CSAM.
Σε προηγούμενες εκθέσεις το IWF ανέφερε ότι η ΤΝ χρησιμοποιείται για τη δημιουργία εικόνων διασημοτήτων που έχουν «απο-ηλικιωθεί» και στη συνέχεια απεικονίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα CSAM που παρατηρήθηκαν περιλάμβαναν υλικό για το οποίο χρησιμοποιήθηκαν εργαλεία τεχνητής νοημοσύνης για να «γυμνώσουν» εικόνες ντυμένων παιδιών που βρέθηκαν στο διαδίκτυο.
Πού τα ανεβάζουν
Περισσότερο από το ήμισυ του περιεχομένου που δημιουργήθηκε με τεχνητή νοημοσύνη και επισημάνθηκε από το IWF τους τελευταίους έξι μήνες φιλοξενείται σε διακομιστές στη Ρωσία και τις ΗΠΑ, ενώ η Ιαπωνία και οι Κάτω Χώρες φιλοξενούν επίσης σημαντικές ποσότητες. Οι διευθύνσεις των ιστοσελίδων που περιέχουν τις εικόνες μεταφορτώνονται σε έναν κατάλογο διευθύνσεων URL της IWF, ο οποίος κοινοποιείται στην τεχνολογική βιομηχανία, ώστε να μπορούν να μπλοκαριστούν και να καταστούν απρόσιτες.
Η IWF δήλωσε ότι οκτώ στις 10 αναφορές παράνομων εικόνων που έχουν κατασκευαστεί από τεχνητή νοημοσύνη προέρχονται από μέλη του κοινού που τις βρήκαν σε δημόσιους ιστότοπους όπως φόρουμ ή γκαλερί τεχνητής νοημοσύνης.