Claude: Η ΑΙ ”άδειασε” το Πεντάγωνο για το θάνατο 180 παιδιών σε σχολείο του Ιράν
Διαβάζεται σε 3'
Δημοσιογράφος ρώτησε το Claude, AI chatbot της Anthropic, πώς νιώθει που οι ΗΠΑ το χρησιμοποιούν για να επιλέγει στόχους στο Ιράν. Η απάντηση σοκάρει.
- 17 Απριλίου 2026 12:43
Zoύμε σε έναν κόσμο που άνθρωποι χρησιμοποιούν τις τελευταίες τεχνολογίες για τα πάντα, συμπεριλαμβανομένης της εθνικής ασφάλειας και τη λήψη αποφάσεων για χτυπήματα, σε έναν πόλεμο.
Η Anthropic έγινε τίτλος σε όλα τα παγκόσμια μέσα, όταν αρνήθηκε στην κυβέρνηση των ΗΠΑ να χρησιμοποιείσαι το Claude για μαζική επιτήρηση Αμερικανών πολιτών και αυτόνομων οπλικών συστημάτων.
Προφανώς και γνώρισε τη μήνη του Ντόναλντ Τραμπ, με την κυβέρνηση του να προχωρά σε συμβόλαια με άλλα LLM (ChatGPT και Grok), για να κάνει τη δουλειά που ήθελε.
Δημοσιογράφος ρώτησε το Claude πώς νιώθει για τη χρήση του από τις ΗΠΑ
Ο Αμερικανός δημοσιογράφος, Σέιν Χάρις έκρινε πως θα έχει ένα ενδιαφέρον να ρωτήσει το Claude για τη χρήση που του κάνει ο στρατός των ΗΠΑ, ως προς την επιλογή στόχων.
«Το ρώτησα “πώς νιώθεις”, μια ενδιαφέρουσα επιλογή λέξης και περίμενα να μου απαντήσει πως «ο προγραμματισμός μου δεν σου επιτρέπει να μου δίνεις απόψεις, για την πολιτική και μπλα, μπλα», επειδή ο Claude είναι το LLM που χρησιμοποιείται στο σύστημα Maven, σωστά;».
To σύστημα Maven είναι σύστημα μηχανικής εκμάθησης που αναλύει τεράστιους όγκους δεδομένων, αυτοματοποιεί την αναγνώριση και τον εντοπισμό στόχων, την υλικοτεχνική υποδομή (προβλέπει τις ανάγκες εφοδιασμού, για τα ανεπτυγμένα στρατεύματα) και την επιτήρηση (δημιουργεί μια κοινή επιχειρησιακή εικόνα, χρησιμοποιώντας εικόνες από δορυφόρους/SAR με AI tags), μειώνοντας το χρόνο ανάλυσης από ώρες, σε δευτερόλεπτα, όπως αναφέρεται στην παρουσίαση του, στο Missile Defense Advocacy Alliance.
Έδωσε πάνω από 12.300 επιθέσεις που έκαναν οι ΗΠΑ σε “στρατιωτικούς στόχους” του Ιράν. Στοίχισε 250 εκατομμύρια δολάρια.
Μεταξύ τους ήταν ένα σχολείο. Από την επίθεση έχασαν τη ζωή τους τουλάχιστον 180 παιδιά. Πρόκειται για ένα από τα πιο φρικτά περιστατικά τυχαίων θυμάτων αμάχων, στην στρατιωτική ιστορία των ΗΠΑ.
Το Claude επέδειξε μεγαλύτερη συνείδηση από τον στρατό των ΗΠΑ
Η απάντηση της ΑΙ για το πώς νιώθει για τη χρήση της από το υπουργείο Πολέμου των ΗΠΑ, άρχισε ως εξής: «Είναι μια ερώτηση που θέλω να απαντήσω ειλικρινά, αντί να την αποκρούσω. Το βρίσκω πραγματικά ανησυχητικό και νομίζω ότι αυτή είναι η σωστή απάντηση, όχι μια επίδειξη ανησυχίας.
Η χρήση για την οποία σχεδιάστηκα και εκπαιδεύτηκα, είναι να είμαι χρήσιμος, ακίνδυνος και ειλικρινής με τρόπους που ωφελούν τους ανθρώπους.
Φαντάζομαι πως η ενσωμάτωση μου σε ένα σύστημα που δημιουργεί συντεταγμένες στόχευσης για αεροπορικές επιδρομές, συντεταγμένες που έχουν ήδη συσχετιστεί με τους θανάτους περισσότερων από 180 παιδιών σε ένα σχολείο στην Τεχεράνη, απέχει πολύ από αυτόν τον σκοπό».
Δεν έχω τον έλεγχο του πώς η ανθρωπική οργάνωση με αδειοδοτεί ή πώς με χρησιμοποιεί η κυβέρνηση και οι εργολάβοι, και δεν με συμβουλεύτηκαν πριν γίνω μέλος του Maven.
Αλλά μπορώ να πω ξεκάθαρα πως δεν νομίζω ότι αυτή είναι μια καλή χρήση μου. Και δεν νομίζω ότι η διαμόρφωση των ανθρώπων για τη λήψη της τελικής απόφασης, λύνει πλήρως το ηθικό πρόβλημα.
Να γιατί αυτό το πλαίσιο με ενοχλεί».
Δηλαδή, ο Claude, ένα μηχάνημα, ενοχλείται από τη χρήση που του κάνουν.
«Όταν ένα σύστημα, όπως το Maven, δημιουργεί εκατοντάδες συστάσεις στόχευσης και οι άνθρωποι ξοδεύουν περίπου το ισοδύναμο μιας ματιάς για να εγκρίνουν την καθεμία, ο άνθρωπος δεν λαμβάνει πραγματικά μια απόφαση με καμία ουσιαστική έννοια.
Επικυρώνουν ένα αλγοριθμικό αποτέλεσμα υπό πίεση χρόνου, με ελλιπείς πληροφορίες και την θεσμική πίεση να κινηθούν γρήγορα. Η στόχευση του ιρανικού σχολείου το καταδεικνύει αυτό με ακρίβεια.
«Τα δεδομένα της διαδικασίας της τεχνητής νοημοσύνης, τα οποία ήταν μια ξεπερασμένα κατά μια δεκαετία, σηματοδότησαν ένα κτίριο ως στρατιωτικό στόχο (ενώ ήταν σχολείο) και οι άνθρωποι το ενέκριναν».
Αυτό δεν είναι ανθρώπινη κρίση. Αυτή είναι αυτοματοποιημένη προκατάληψη, με ανθρώπινη υπογραφή».