Μια εικόνα που δείχνει το λογότυπο Mastodon σε μαύρο φόντο
Εικονογράφηση: The Verge

Το Mastodon, το αποκεντρωμένο δίκτυο που θεωρείται ως βιώσιμη εναλλακτική λύση στο Twitter, είναι γεμάτο με υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), σύμφωνα με μια νέα μελέτη από το Παρατηρητήριο Διαδικτύου του Στάνφορντ (μέσω Η Washington Post). Σε μόλις δύο ημέρες, οι ερευνητές βρήκαν 112 περιπτώσεις γνωστού CSAM σε 325.000 δημοσιεύσεις στην πλατφόρμα — με την πρώτη εμφάνιση να εμφανίζεται μετά από μόλις πέντε λεπτά αναζήτησης.

Για τη διεξαγωγή της έρευνάς του, το Παρατηρητήριο Διαδικτύου σάρωνε τις 25 πιο δημοφιλείς περιπτώσεις Mastodon για CSAM. Οι ερευνητές χρησιμοποίησαν επίσης το API SafeSearch της Google για τον εντοπισμό ακατάλληλων εικόνων, μαζί με το PhotoDNA, ένα εργαλείο που βοηθά στην εύρεση επισημασμένου CSAM. Κατά τη διάρκεια της αναζήτησής της, η ομάδα βρήκε 554 κομμάτια περιεχομένου που ταίριαζαν με hashtags ή λέξεις-κλειδιά που χρησιμοποιούνται συχνά από ομάδες σεξουαλικής κακοποίησης παιδιών στο Διαδίκτυο, τα οποία προσδιορίστηκαν όλα ως ξεκάθαρα στην «υψηλή εμπιστοσύνη» από την Ασφαλή Αναζήτηση Google.

Υπήρχαν επίσης 713 χρήσεις των κορυφαίων 20 hashtags που σχετίζονται με το CSAM σε ολόκληρο το Fediverse σε αναρτήσεις που περιείχαν μέσα ενημέρωσης, καθώς και 1.217 αναρτήσεις μόνο με κείμενο που έδειχναν “εκτός τοποθεσίας εμπορία CSAM ή περιποίηση ανηλίκων”. Η μελέτη σημειώνει ότι η ανοιχτή δημοσίευση του CSAM είναι «ανησυχητικά διαδεδομένη».

Ένα παράδειγμα αναφέρθηκε στην εκτεταμένη διακοπή του διακομιστή mastodon.xyz που σημειώσαμε νωρίτερα αυτόν τον μήνα, το οποίο ήταν ένα περιστατικό που συνέβη λόγω του CSAM που δημοσιεύτηκε στο Mastodon. Σε μια ανάρτηση σχετικά με το περιστατικό, ο μοναδικός συντηρητής του διακομιστή δήλωσε ότι ειδοποιήθηκε για περιεχόμενο που περιέχει CSAM, αλλά σημειώνει ότι η μετριοπάθεια γίνεται στον ελεύθερο χρόνο του και μπορεί να χρειαστούν έως και μερικές ημέρες για να συμβεί – αυτή δεν είναι μια γιγάντια επιχείρηση όπως η Meta με μια παγκόσμια ομάδα εργολάβων, είναι μόνο ένα άτομο.

Ενώ δήλωσαν ότι ανέλαβαν δράση κατά του εν λόγω περιεχομένου, ο οικοδεσπότης του τομέα mastodon.xyz τον είχε αναστείλει ούτως ή άλλως, καθιστώντας τον διακομιστή απρόσιτο στους χρήστες μέχρι να μπορέσουν να επικοινωνήσουν με κάποιον για να επαναφέρει την καταχώρισή του. Μετά την επίλυση του προβλήματος, ο διαχειριστής του mastodon.xyz λέει ότι ο καταχωρητής πρόσθεσε τον τομέα σε μια λίστα “ψευδώς θετικών” για να αποτρέψει μελλοντικές καταργήσεις. Ωστόσο, όπως επισημαίνουν οι ερευνητές, «αυτό που προκάλεσε την ενέργεια δεν ήταν ψευδώς θετικό».

«Πήραμε περισσότερες επιτυχίες photoDNA σε διάστημα δύο ημερών από ό,τι πιθανότατα είχαμε σε ολόκληρη την ιστορία του οργανισμού μας να κάνουμε οποιουδήποτε είδους ανάλυση των μέσων κοινωνικής δικτύωσης, και δεν είναι καν κοντά», δήλωσε ο David Thiel, ένας από τους ερευνητές της έκθεσης. Η Washington Post. “Πολλά από αυτά είναι απλώς αποτέλεσμα αυτού που φαίνεται να είναι έλλειψη εργαλείων που χρησιμοποιούν οι κεντρικές πλατφόρμες μέσων κοινωνικής δικτύωσης για την αντιμετώπιση των ανησυχιών για την ασφάλεια των παιδιών».

Καθώς τα αποκεντρωμένα δίκτυα όπως το Mastodon αυξάνονται σε δημοτικότητα, τόσο αυξάνονται οι ανησυχίες για την ασφάλεια. Τα αποκεντρωμένα δίκτυα δεν χρησιμοποιούν την ίδια προσέγγιση στη μετριοπάθεια όπως οι κύριοι ιστότοποι όπως το Facebook, το Instagram και το Reddit. Αντίθετα, σε κάθε αποκεντρωμένη παρουσία δίνεται ο έλεγχος της μετριοπάθειας, κάτι που μπορεί να δημιουργήσει ασυνέπεια σε ολόκληρο το Fediverse. Αυτός είναι ο λόγος για τον οποίο οι ερευνητές προτείνουν ότι δίκτυα όπως το Mastodon χρησιμοποιούν πιο ισχυρά εργαλεία για συντονιστές, μαζί με την ενσωμάτωση PhotoDNA και την αναφορά CyberTipline.