Facebook για λογοκρισία σε καρέ για τον Κουφοντίνα: "Δεν είμαστε και τέλειοι"

Φωτογραφία αρχείου
Φωτογραφία αρχείου AP

Πώς απάντησε εκπρόσωπος του facebook (που πάντως δεν κατονομάζεται) στις φωνές που έκαναν λόγο για λογοκρισία από το μέσο στα θέματα που άπτονται της κάλυψης της απεργίας πείνας του Δ. Κουφοντίνα.

Στην απάντησή του προς τις φωνές που έκαναν λόγο για λογοκρισία εκπρόσωπος του facebook στην Ελλάδα απάντησε με ανακοίνωση:

«Οι τρομοκράτες, οι βίαιες εξτρεμιστικές ομάδες και οι οργανώσεις μίσους δεν έχουν θέση στο Facebook και το Instagram. Σύμφωνα με την πολιτική μας για τα Επικίνδυνα Άτομα και Οργανώσεις, απαγορεύουμε σε μέλη τρομοκρατικών οργανώσεων, όπως ο κ. Κουφοντίνας, να χρησιμοποιούν τις πλατφόρμες μας, καθώς επίσης, αποκλείουμε δημοσιεύσεις που επιδοκιμάζουν ή υποστηρίζουν αυτά τα άτομα και τις ενέργειές τους κάθε φορά που λαμβάνουμε σχετική γνώση. Ωστόσο, επιτρέπουμε στους χρήστες μας να συζητούν ουδέτερα για αυτά τα άτομα και να δημοσιεύουν ειδήσεις σχετικές με τις ενέργειές τους.

Παρόλο που σημειώνεται μεγάλη πρόοδος στα συστήματά μας, αυτά δεν παύουν να μην είναι τέλεια, με αποτέλεσμα κατά περιπτώσεις να γίνονται λάθη, όπως συνέβη στην προκειμένη. Το περιεχόμενο που αφαιρέθηκε κατά λάθος επαναφέρθηκε, όταν αυτό διαπιστώθηκε».

Ο ορισμός της τρομοκρατίας είναι ιδεολογικά αγνωστικός και μέχρι σήμερα, έχει εντοπιστεί ένα ευρύ φάσμα ομάδων ως τρομοκρατικές οργανώσεις, με βάση τη συμπεριφορά τους.

Το Facebook χρησιμοποιεί έναν συνδυασμό αναφορών χρηστών και τεχνολογίας για τον εντοπισμό περιεχομένου που παραβιάζει τις πολιτικές του. Οι εξελίξεις στην τεχνητή νοημοσύνη (AI) έχουν ως αποτέλεσμα να εντοπίζεται ακατάλληλο περιεχόμενο σε ένα μεγάλο εύρος θεμάτων, πριν ακόμη οι χρήστες χρειαστεί να κάνουν κάποια σχετική αναφορά. Συχνά η ακρίβεια των συστημάτων του Facebook είναι μεγαλύτερη από αυτή των αναφορών που λαμβάνει από τους χρήστες.

Δε λαμβάνονται μέτρα εναντίον περιεχομένου βασιζόμενο σε μαζικές αναφορές. Ακόμη και μία μοναδική αναφορά είναι αρκετή για να αποκλειστεί μέρος περιεχομένου, εφόσον επιβεβαιωθεί ότι παραβιάζει τις πολιτικές του.

Το Facebook, επίσης, κάνει χρήση ενός συνδυασμού τεχνολογίας και ανθρώπινου δυναμικού για να εξεταστεί το περιεχόμενο που αναγνωρίζεται ως παραβίαση των πολιτικών του. Παρόλο που η τεχνολογία έχει προχωρήσει αρκετά, εξακολουθούν να υπάρχουν τομείς στους οποίους είναι ζωτικής σημασίας να ελέγχεται το περιεχόμενο από ανθρώπινο παράγοντα. Σε αυτές τις περιπτώσεις, απαιτείται ανθρώπινη τεχνογνωσία για να προσδιοριστεί εάν το περιεχόμενο προβαίνει σε παραβιάσεις – όπως, για παράδειγμα, σε περιστατικά που η λήψη αποφάσεων είναι περίπλοκη και το ευρύτερο πλαίσιο κοινοποίησής του είναι μέγιστης σημασίας ή όταν η λήψη της απόφασης κρίνεται οριακά.

Το Facebook απασχολεί 15.000 επιμελητές περιεχομένου που εδρεύουν σε περιοχές σε όλο τον κόσμο. Συνολικά, εργάζονται 24 ώρες την ημέρα / 7 ημέρες την εβδομάδα, έτσι ώστε να μπορούν να ελεγχθούν γρήγορα οι αναφορές, σε περισσότερες από 50 γλώσσες συμπεριλαμβανομένων και των ελληνικών. Για περισσότερες πληροφορίες σχετικά με τον τρόπο λειτουργίας αυτής της διαδικασίας ακολουθήστε τον παρακάτω σύνδεσμο: https://about.fb.com/news/2020/08/how-we-review-content/

Δεδομένου ότι πρόκειται για συστήματα, περιστασιακά ενδέχεται να συμβούν λάθη και περιεχόμενο που δεν παραβιάζει τις πολιτικές του Facebook να αφαιρεθεί, όπως συνέβη σε κάποιες περιπτώσεις στην προκειμένη. Για αυτόν τον λόγο, έχει δημιουργηθεί μία διαδικασία προσφυγής, έτσι ώστε οι χρήστες να μπορούν να απευθυνθούν στο Facebook, όταν πιστεύουν ότι έχει γίνει κάποιο λάθος, έτσι ώστε το περιεχόμενο να επανεξεταστεί.

Το Facebook ανά τρίμηνο κοινοποιεί δημοσίως το σύνολο του περιεχομένου που αφαιρέθηκε, τον αριθμό του περιεχομένου για το οποίο έχουν υποβληθεί ενστάσεις και το ποσοστό των ενστάσεων που είναι επιτυχείς στον παρακάτω σύνδεσμο: Αναφορά Εφαρμογής των Προτύπων Κοινότητας».

Εκπρόσωπος της εταιρείας Facebook

Ακολουθήστε το News247.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

ΠΕΡΙΣΣΟΤΕΡΑ: Δημήτρης Κουφοντίνας, Facebook
SHARE:

24Media Network