Υπάρχουν πολλές δουλειές που απαιτούν πολλά άντερα για να κάνεις και μία από αυτές είναι πίσω από τις οθόνες όσο παράξενο και αν φαίνεται. Τα μάτια των διαχειριστών του Facebook βλέπουν πολλά, σύμφωνα τουλάχιστον με την ίδια εταιρεία που ανακοίνωσε ότι μόνο κατά το τελευταίο τρίμηνο αφαίρεσαν 8,7 εκατ. φωτογραφίες με γυμνά παιδιά.
Το ενδιαφέρον είναι πως ο εντοπισμός και αφαίρεση του συγκεκριμένου υλικού έγινε με τη χρήση ενός εργαλείου που έκανε μόνο του τον συνδυασμό και επισήμαινε υλικό που, ουσιαστικά, παραπέμπει σε παιδική πορνογραφία. Δεν θέλουμε να ξέρουμε τις λεπτομέρειες και φανταζόμαστε βέβαια πως σε κάποιες περιπτώσεις ο μηχανισμός θα κάνει λάθη. Το Facebook λέει πως οι χρήστες θα μπορούν να ζητήσουν επανεξέταση μίας φωτογραφίας αν αυτή αφαιρεθεί από το σύστημα ως ύποπτη.
Στο θέμα αυτό, οι εκπρόσωποι της εταιρείες απαντούν με την κλασική καλιφορνέζικη παροιμία better safe than sorry. Υποστηρίζουν επίσης πως το σύστημα μαθαίνει να ξεχωρίζει το ύφος των φωτογραφιών και πως ακριβώς λόγω αυτής της δυνατότητας “εκπαίδευσης” δεν επισήμανε ως ύποπτη μία από τις φωτογραφίες-ορόσημο του πολέμου του Βιετνάμ για την οποία είχε γίνει ντόρος προ καιρού.
Το Facebook αναμένεται να επεκτείνει τον μηχανισμό αυτό και στο Instagram. Ενας άλλος μηχανισμός επιχειρεί να παρεμποδίσει την προσπάθεια προσέγγισης ανηλίκων από ενηλίκους, διαδικασία που είναι γνωστή και ως grooming. Το Facebook αναφέρει πως ο σχετικός μηχανισμός θα λαμβάνει υπόψιν του σειρά από παράγοντες όπως πόσοι άνθρωποι έχουν μπλοκάρει έναν χρήστη και πόσες φορές αυτός ο χρήστης έχει επιχειρήσει να προσεγγίσει παιδιά μέσω του κοινωνικού δικτύου.