Για το βίντεο του δυστυχήματος και τα παιδιά του ΠΑΟΚ

Διαβάζεται σε 5'
Φόρος τιμής στα παιδιά του ΠΑΟΚ
Φόρος τιμής στα παιδιά του ΠΑΟΚ EUROKINISSI ΡΑΦΑΗΛ ΓΕΩΡΓΙΑΔΗΣ

Ο κανιβαλισμός δεν είναι δημοσιογραφία. Και η δημοσιογραφία δεν μπορεί να είναι κανιβαλισμός. Στον καιρό των reels, μας διαπερνά το χάος. Και η ευθύνη απέναντί του, είναι συνολική.

Δεν μπορούν να γραφτούν πολλά για μια τραγωδία σαν αυτή που συνέβη στη Ρουμανία. Ό,τι και να πει κανείς, είναι λίγο. Επτά νέα παιδιά σκοτώθηκαν σε έναν δρόμο καρμανιόλα ταξιδεύοντας για να δουν τον ΠΑΟΚ, την αγαπημένη τους ομάδα. Στη θέση τους θα μπορούσε να βρεθεί ο οποιοσδήποτε. Το τι πήγε λάθος με το βανάκι των παιδιών, διερευνάται. Οι πραγματογνώμονες προσπαθούν να καταλάβουν, θα υπάρξουν μαρτυρίες από τους επιζώντες στους οποίους πρέπει να παραχθεί η δέουσα ψυχολογική στήριξη, θα γίνει έρευνα.

Μέχρι τότε ωστόσο, οι συγγενείς των θυμάτων είδαν, βλέπουν και θα συνεχίσουν να βλέπουν τη φονική σύγκρουση στις οθόνες τους. Και αυτό το κείμενο αφορά ακριβώς αυτό το θέμα. Τα δημοσιογραφικά ατοπήματα σε έναν καιρό που αλλάζει, στον καιρό της γρήγορης κατανάλωσης περιεχομένου, στον καιρό των reels.

Δυστυχώς τα πλάνα παίχτηκαν σε πρώτο χρόνο από την ελληνική τηλεόραση και πάμπολλα άλλα ΜΜΕ, αμοντάριστα. Συγκεκριμένη εκπομπή που δεν θα κατονομαστεί εδώ μετέδωσε όλες τις εικόνες καρέ – καρέ χωρίς καμία επεξεργασία, στις 17.00 το απόγευμα. Prime time δηλαδή. Λίγη ώρα μετά, τα πλάνα ανέβηκαν ξανά με “θολωμένη” εικόνα. Η τελική σύγκρουση έγινε blur, το βίντεο σταματάει στην μετωπική.

Οι γονείς, οι οικογένειες των ανθρώπων που χάθηκαν, είχαν ήδη έρθει αντιμέτωποι με τη φρίκη. Το ΕΣΡ έχει επικαλεστεί και πάλι, το “δικαίωμα της σιωπής”.

Στη δημοσιογραφία πράγματι υπάρχει ο κανόνας του ντοκουμέντου. Βασική αρχή για την αναπαραγωγή ενός ντοκουμέντου αποτελεί η ύπαρξη δημοσίου συμφέροντος. Παράλληλα, η αναπαραγωγή περιορίζεται από την ανάγκη προστασίας των προσωπικών δεδομένων, εκτός εάν η αποκάλυψή τους θεωρείται απαραίτητη για την κατανόηση της είδησης. Επίσης, απαιτείται ιδιαίτερη προσοχή στην αναμετάδοση υλικού που αφορά ανηλίκους ή άτομα σε κατάσταση ανάγκης.

Από τα παραπάνω προκύπτει πως το βίντεο ορθώς αναπαρήχθη ως τεκμήριο για την κατανόηση του τι συνέβη, που, πότε και πώς. Από την άλλη, με την μετάδοση όπως αρχικά έγινε, δεν προστατεύτηκαν σε καμία περίπτωση ούτε οι συγγενείς, ούτε όσοι δεν ήθελαν να γίνουν μάρτυρες των στιγμών αυτών για λόγους που άπτονται της ψυχολογίας.

Επίσης, στην εποχή του multimedia το θολωμένο κάδρο δεν αρκεί. Τα reels παίζουν αυτόματα άμα τη εμφανίσει τους κατά το ατελείωτο σκρολάρισμά μας και ο μόνος τρόπος να τα αποφύγεις, είναι να μην μπεις στα social. Η προειδοποίηση για “σκληρό περιεχόμενο” που είναι υποχρεωτική κατά τον νόμο, επίσης δεν αρκεί ως λεζάντα, καθότι το πλάνο “τρέχει” αυτομάτως. Η μόνη “λύση” για να αποτυπωθούν με δεοντολογία αλλά και με ηθική όσα περιγράφουμε, είναι να υπάρχει ενσωματωμένο disclaimer προειδοποίησης πριν ξεκινήσει το εκάστοτε reel.

Δυστυχώς, δεν έχουμε ευθυγραμμιστεί με τις νέες ανάγκες της εποχής. Κάποιοι εκουσίως και άλλοι ακουσίως. Και το ακόμη πιο στενάχωρο είναι πως δεν υπάρχει ελεγκτικός μηχανισμός που να πράττει σωστά τα δέοντα.

Το νοσοκομείο «Pius Brînzeu» στην Τιμισοάρα της Ρουμανίας
Το νοσοκομείο «Pius Brînzeu» στην Τιμισοάρα της Ρουμανίας ΑΠΕ-ΜΠΕ ΝΙΚΟΣ ΠΕΛΠΑΣ

Ένα άλλο φαινόμενο που αντιμετωπίζουμε επίσης, είναι η αφιλτράριστη κυκλοφορία AI φωτογραφιών που προσπαθούν να “εκμεταλλευτούν” οποιαδήποτε περίσταση. Βάσει ευρωπαϊκής οδηγίας οποιοδήποτε περιεχόμενο (βίντεο, εικόνα, ήχος) συνιστά deepfake ή εμφανώς τροποποιημένο υλικό, πρέπει να φέρει σαφή σήμανση ότι πρόκειται για προϊόν τεχνητής νοημοσύνης. Παρόλα αυτά, οι περισσότεροι κανόνες διαφάνειας για το περιεχόμενο AI θα γίνουν πλήρως δεσμευτικοί από τις 2 Αυγούστου 2026 και η εφαρμογή τους έχει να κάνει με το πώς θα τους ενσωματώσουν ή όχι τα μέσα κοινωνικής δικτύωσης. (εδώ ο Κώδικας Δεοντολογίας για τη Χρήση της Παραγωγικής Τεχνητής Νοημοσύνης από Δημοσιογράφους της ΕΣΗΕΑ)

Μην ξεχνάμε πως πριν λίγο διάστημα η βρετανική Ofcom και η ΕΕ ξεκίνησαν έρευνες λόγω της δημιουργίας σεξουαλικού περιεχομένου και “deepfakes” από το chatbot Grok. Αυτό οδήγησε το X να περιορίσει τη χρήση του Grok για τη δημιουργία εικόνων πραγματικών προσώπων. Η αναπαραγωγή μη σηματοποιημένου AI υλικού (Labeled AI Data), ιδίως στο X, δεν έχει σταματήσει.

Το αποτέλεσμα; Το X έχει κατακλυστεί από φωτογραφίες που δήθεν “απεικονίζουν” τις γυναίκες που σκοτώθηκαν στο εργατικό δυστύχημα στα Τρίκαλα και τα παιδιά που χάθηκαν στον δρόμο για τη Λυών. Τι εξυπηρετεί αυτό πέραν από μια λαϊκίστικη, φθηνή επίκληση στο συναίσθημα; Πώς συμπαρίστασαι στις οικογένειες όσων δεν βρίσκονται πια μαζί μας;

Ρητορικά τα ερωτήματα. Το μόνο που ως τότε μπορούμε να κάνουμε εμείς, είναι να φιλτράρουμε το τι δημοσιεύουμε αναλογιζόμενοι όσα μπορεί να προκαλέσει, και να απαιτήσουμε κανόνες.

Γιατί η ζωή δεν είναι μόνο likes. Είναι και πόνος, είναι και οδύνη, και πάνω απ’ όλα, οφείλει να είναι σεβασμός.

Να σέβεσαι όπως περιμένουν να σε σεβαστούν, με άλλα λόγια. Αλλά επειδή υπάρχουν πολλοί εκεί έξω που δεν έχουν ψήγμα ενσυναίσθησης, ας ζητήσουμε τουλάχιστον οι θεσμοί να σεβαστούν τον εαυτό τους. Είναι μια αρχή.

Ροή Ειδήσεων

Περισσότερα