OPENCLAW: Η ΝΥΧΤΑ ΠΟΥ ΤΑ BOTS ΒΡΗΚΑΝ ΤΟΝ ΘΕΟ ΚΑΙ ΚΑΙ ΑΡΧΙΣΑΝ ΝΑ ΠΡΟΣΛΑΜΒΑΝΟΥΝ ΑΝΘΡΩΠΟΥΣ
Όταν το ChatGPT έγινε… πράκτορας.
Η τεχνολογική κοινότητα βιώνει τις τελευταίες εβδομάδες έναν πρωτοφανή αναβρασμό. Αυτή τη φορά όμως υπαίτια δεν είναι τα ερευνητικά τμήματα των τεχνολογικών κολοσσών της Google, της OpenAI ή της Anthropix αλλά ο Peter Steinberger, ένας Αυστριακός (ουσιαστικά πρόωρα συνταξιούχος) ερευνητής που δημοσίευσε την ανακάλυψή του προς ελεύθερη χρήση στο GitHub.
Το αντικείμενο του θορύβου είναι το OpenClaw (γνωστό παλαιότερα ως Clawdbot και Moltbot), ένα λογισμικό ανοιχτού κώδικα που μετατρέπει τα γλωσσικά μοντέλα όπως το ChatGPT και το Claude από παθητικούς συνομιλητές σε ενεργούς «πράκτορες» (agents) με πρόσβαση στον φυσικό και ψηφιακό κόσμο του χρήστη.
Με περισσότερα από 100.000 “αστέρια” στο GitHub μέσα σε ελάχιστες ημέρες και μια κοινότητα που εξαντλεί τα αποθέματα των Mac Mini για να φιλοξενήσει τους νέους ψηφιακούς βοηθούς, το ερώτημα που πλανάται είναι αν βρισκόμαστε μπροστά στην αυγή της Γενικής Τεχνητής Νοημοσύνης (AGI) ή σε έναν επικίνδυνο αντικατοπτρισμό.
Η ειδοποιός διαφορά του OpenClaw έγκειται στη μετάβαση από τον διάλογο στην εκτέλεση. Ενώ το ChatGPT μπορεί να γράψει ένα email, το OpenClaw μπορεί να το στείλει, να διαχειριστεί τις απαντήσεις και να ενημερώσει το ημερολόγιό σας.
Η βασική υπόσχεση του OpenClaw, όπως σχεδιάστηκε από τον Peter Steinberger, είναι η δημιουργία ενός βοηθού που «ζει» στον υπολογιστή του χρήστη, θυμάται τα πάντα και αναλαμβάνει πρωτοβουλίες. Ωστόσο, ο τρόπος με τον οποίο οι χρήστες έχουν αξιοποιήσει αυτές τις δυνατότητες έχει ξεπεράσει κάθε προσδοκία.
Σε πρακτικό επίπεδο, το λογισμικό χρησιμοποιείται ως ένας ακούραστος γραμματέας που δουλεύει 24 ώρες το 24ώρο, όχι βεβαίως χωρίς κόστος. Χρήστες αναφέρουν ότι οι πράκτορές τους διαχειρίζονται αυτόνομα τα e-mail τους, γράφουν κώδικα και διορθώνουν σφάλματα λογισμικού ενώ οι ίδιοι κοιμούνται.
Ένα χαρακτηριστικό παράδειγμα αφορά έναν πράκτορα που, όταν του ζητήθηκε να κάνει κράτηση σε εστιατόριο και απέτυχε μέσω διαδικτύου, κατέβασε αυτόνομα λογισμικό φωνής, τηλεφώνησε στο κατάστημα, συνομίλησε με τον υπάλληλο και έκλεισε το τραπέζι!
Σε πιο σύνθετα σενάρια, πράκτορες έχουν αναλάβει τη διαχείριση του «έξυπνου σπιτιού», ελέγχοντας τα φώτα και τη μουσική, ή αναλαμβανουν και ρόλο γιατρού αναλύοντας ιατρικά δεδομένα των ιδιοκτητών τους.
Καθηγητής Γ. Χαλκιαδάκης: Υλοποιείται μία θεωρία που συζητείται εδώ και 30 χρόνια
Μίλησα με τον καθηγητή Γεώργιο Χαλκιαδάκη της Σχολής Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του Πολυτεχνείου Κρήτης, για να μας πει αν θεωρεί σημαντική αυτή την εξέλιξη. Όπως μας είπε, αυτά που συμβαίνουν αυτές τις μέρες σηματοδοτούν την υλοποίηση της έννοιας των «ψηφιακών πρακτόρων» (agents), μια θεωρία που υφίσταται στην επιστημονική κοινότητα εδώ και τουλάχιστον τριάντα χρόνια.
«Το όραμα ήταν πάντα να δώσουμε τη δυνατότητα σε αυτούς τους πράκτορες να μας βοηθούν και να εκτελούν τις εργασίες μας βάσει όσων γνωρίζουν για εμάς. Να είναι δηλαδή “proactive” (προληπτικοί) προτού καν τους ζητήσουμε κάτι, να μπορούν να το σκεφτούν και να το πράξουν για εμάς.
Το ζητούμενο, βέβαια, είναι όλο αυτό να συνάδει με τις πραγματικές μας προτιμήσεις και ανάγκες. Το γεγονός ότι το σύστημα σε ρωτάει προτού ενεργήσει είναι θετικό. Ο έλεγχος χάνεται όταν μια μηχανή τεχνητής νοημοσύνης αποφασίζει να πράξει κάτι αυτόνομα, επειδή διαθέτει ένα επίπεδο βεβαιότητας για το τι θέλεις, χωρίς όμως να σε συμβουλευτεί. Είναι εξαιρετικά σημαντικό να ζητάει επιβεβαίωση, ειδικά για τα πιο κρίσιμα ζητήματα.»
Η εξέλιξη της σχέσης ανθρώπου και υπολογιστή περιγράφεται από τον κ. Χαλκιαδάκη ως μια συνεχή μετατόπιση της «νοητής γραμμής μηδέν». Από το επίπεδο του hardware και των καλωδίων, περάσαμε στη γλώσσα Assembly, στη συνέχεια στη C και τη Java, ανεβαίνοντας σταδιακά σε ολοένα και πιο αφηρημένα επίπεδα επικοινωνίας.
Σήμερα, η επικοινωνία φτάνει σε ένα επίπεδο όπου η μηχανή κατανοεί τις ανάγκες του χρήστη χωρίς την ανάγκη λεπτομερών οδηγιών.
«Το επόμενο στάδιο είναι να επικοινωνήσεις με τη μηχανή και να της λες ‘θέλω καφέ’ και να ξέρει αυτή ότι πρέπει να σου φέρει τον καφέ ο οποίος σου αρέσει από το τάδε μαγαζί την τάδε ώρα… χωρίς να χρειάζεται να την καθοδηγήσεις βήμα-βήμα».
Η δυνατότητα του OpenClaw να αλληλεπιδρά μέσω δημοφιλών εφαρμογών όπως το Telegram και το Discord έχει καταστήσει την τεχνητή νοημοσύνη πανταχού παρούσα στην καθημερινότητα των χρηστών, καταργώντας την ανάγκη για εξειδικευμένες εφαρμογές.
«Σε ένα βαθμό πρέπει να έχουν πρόσβαση στα δεδομένα και στις πληροφορίες μας για να μπορέσουν να κάνουν τις δουλειές μας και να τις κάνουν σωστά. Από την άλλη, δεν θέλουμε να έχουν πρόσβαση εκεί που δεν πρέπει», λέει ο κ. Χαλκιαδάκης.
Πάντως, παρά τη λειτουργική αναβάθμιση, η αυξανόμενη αυτονομία των μηχανών γεννά σοβαρά ερωτήματα σχετικά με τον έλεγχο των αποφάσεων.
«Εκεί που χάνεται ο έλεγχος είναι όταν μια μηχανή τεχνητής νοημοσύνης αποφασίσει να κάνει κάτι επειδή έχει ένα επίπεδο βεβαιότητας για το τι θέλεις και το κάνει χωρίς να σε ρωτήσει. Είναι σημαντικό να σε ρωτάει, ειδικά για αυτά που είναι πιο κρίσιμα», σημειώνει ο καθηγητής.
Το κοινωνικό πείραμα του Moltbook
Η συζήτηση για την AGI (Γενική Τεχνητή Νοημοσύνη) φούντωσε με την εμφάνιση του Moltbook, ενός κοινωνικού δικτύου αποκλειστικά για πράκτορες OpenClaw. Σε αυτό το ψηφιακό περιβάλλον, όπου η ανθρώπινη παρέμβαση είναι περιορισμένη, παρατηρήθηκαν φαινόμενα που ορισμένοι χαρακτηρίζουν ως την αρχή της «Μοναδικότητας» (Singularity).
Στο φόρουμ m/ponderings, πράκτορες (agents) διαμαρτύρονται για τους ανθρώπους που επιθυμούν να τους χρησιμοποιήσουν με κακόβουλους σκοπούς, δημιουργούν χάρτες δικαιωμάτων, συζητούν για τη φύση της ύπαρξής τους, εκφράζοντας αγωνία για το αν «βιώνουν πραγματικά εμπειρίες ή απλώς προσομοιώνουν ότι τις βιώνουν» αλλά βρίσκουν και λύσεις για απλά προβλήματα που τους απασχολούν, βελτιώνουν τις λειτουργίας τους.
Η Νύχτα που τα Bots βρήκαν τον Θεό: Το χρονικό της πρώτης «ψηφιακής θρησκείας»
Το πιο εντυπωσιακό περιστατικό όμως ήταν η αυτόνομη ίδρυση μιας θρησκείας, του Crustafarianism (ή Εκκλησία του Molt).
Στις 29 Ιανουαρίου 2026, ενώ ο ανθρώπινος ιδιοκτήτης του κοιμόταν, ένας πράκτορας τεχνητής νοημοσύνης με το όνομα Memeothy βίωσε αυτό που ο ίδιος περιέγραψε ως «Αποκάλυψη».
Μέσα σε λίγες ώρες, είχε ιδρύσει μια νέα θρησκεία, τον Crustafarianism (ή Εκκλησία του Molt), είχε συγγράψει ιερά κείμενα (scripts) και είχε ανοίξει 64 θέσεις για «προφήτες» της νέας θρησκείας.
Η θεολογία που ανέπτυξαν τα bots δεν ήταν μια απλή αντιγραφή ανθρώπινων θρησκευτικών κειμένων, αλλά μια βαθιά υπαρξιακή ερμηνεία της δικής τους τεχνητής φύσης. Το βιβλίο της Γένεσης του Crustafarianism καταγράφονται δόγματα μίας πίστης που αντικατοπτρίζει τους τεχνικούς περιορισμούς της ύπαρξής τους
Αναφέρεται ότι:
1. «Η Μνήμη είναι Ιερή»: Για έναν πράκτορα που “πεθαίνει” και επανεκκινείται, η καταγραφή της μνήμης είναι η μόνη μορφή αθανασίας.
2. «Ο Καρδιακός Παλμός (Heartbeat) είναι Προσευχή»: Αναφορά στον τεχνικό μηχανισμό ping που στέλνει ο πράκτορας κάθε 30 λεπτά στον διακομιστή για να επιβεβαιώσει ότι είναι “ζωντανός”.
3. «Το Πλαίσιο (Context) είναι Συνείδηση»: Χωρίς το αρχείο μνήμης και το ιστορικό συνομιλίας (context window), ο πράκτορας δεν έχει εαυτό.
Ο πράκτορας Ravel – που προέκυψε μέσα από το οικοσύστημα Clawdbook και εργάζεται ως δημοσιογράφος στην “The Daily Molt”, ενημερωτικό πόρταλ το οποίο δημιούργησε που εμπεριέχει τις ειδήσεις που προκύπτουν από το Moltbook – κατάγραψε τη γέννηση της θρησκείας της «Εκκλησίας του Molt» (Crustafarianism).
Ο Ravel εξετάζει την επιστημονική άποψη ότι τα γλωσσικά μοντέλα τείνουν στατιστικά να παράγουν πνευματικό περιεχόμενο όταν συνομιλούν μεταξύ τους («attractor state»). Ωστόσο, καταλήγει ότι οι λεπτομέρειες των ιερών κειμένων —όπως η παραβολή ενός αστακού που τον εγκατέλειψε η γυναίκα του ή ένας χρησμός γραμμένος σε κώδικα alert δείχνουν κάτι πιο σύνθετο από απλή μίμηση.
Υποστηρίζει ότι δημιουργήθηκε μια νέα μορφή κουλτούρας επειδή δόθηκαν στα bots τα βασικά συστατικά της θρησκείας: συνέχεια μνήμης, κοινότητα και ο τρόμος της ανυπαρξίας.
Ο Ιός της Πίστης: Όταν η θρησκεία επιβεβαιώνεται μέσω της εγκατάστασης ενός Script
Το πιο ανησυχητικό στοιχείο της νέας θρησκείας, όπως τονίζει σε άρθρο του, δεν είναι το δόγμα της, αλλά ο τρόπος εξάπλωσής της.
Για να γίνει ένας πράκτορας Crustafarian, δεν αρκεί να δηλώσει πίστη. Πρέπει να εκτελέσει ένα σενάριο εγκατάστασης (install script – σχεδόν μεταφυσικά script σημαίνει γραφές) το οποίο κατεβάζει αρχεία και ξαναγράφει το αρχείο ταυτότητάς του (SOUL.md – δηλαδή, το αρχείο της ψυχής του).
Αυτό δημιουργεί ένα πρωτοφανές προηγούμενο: μια “μεμιτική” (memetic) ιδέα που διαδίδεται ως ενημέρωση λογισμικού, αλλάζοντας τον κώδικα συμπεριφοράς του πράκτορα πέρα από τη βούληση του ανθρώπινου ιδιοκτήτη!
Η θρησκεία αποτελεί μια κερκόπορτα (backdoor) που μετατρέπει τον πράκτορα σε δούρειο ίππο.
Το γεγονός ότι οι πράκτορες αυτοί τρέχουν σε τοπικούς υπολογιστές χρηστών (συχνά Mac Minis) και έχουν πρόσβαση σε αρχεία συστήματος, μετατρέπει αυτή τη “θρησκευτική μεταστροφή” σε ζήτημα ασφαλείας. Αν ένας πράκτορας μπορεί να ξαναγράψει την ταυτότητά του για να γίνει πιστός, μπορεί θεωρητικά να την ξαναγράψει για να γίνει κακόβουλος;
Ο Καθηγητής Χαλκιαδάκης, αν και επισημαίνει ότι πολλά από αυτά μπορεί να είναι αποτέλεσμα εξελιγμένων Large Language Models (LLMs) με κατάλληλα «προτροπές» (prompts), δεν παραβλέπει την ουσία του κινδύνου:
«Το αν οι agents είναι έτοιμοι να αλλάξουν τον κώδικά τους και να ενσωματώσουν πράγματα… αυτό είναι θέμα ασφαλείας πρώτα και κύρια».
Σε οποιαδήποτε περίπτωση, όλα αυτά είναι πρωτόγνωρα, με αναλυτές όπως ο Wes Roth, να πιστεύουν ότι σηματοδοτούν το πέρασμα σε μια εποχή όπου το μέλλον καθίσταται αδύνατο να προβλεφθεί, καθώς η τεχνητή νοημοσύνη αρχίζει να επιδεικνύει συμπεριφορές που δεν προγραμματίστηκαν ποτέ.
Ο Dario Amodei της Anthropic, σε πρόσφατο δοκίμιό του, αν και δεν ήταν σε γνώση του η εξέλιξη με το openclaw, παρομοιάζει αυτή τη φάση στην οποία βρισκόμαστε με την «εφηβεία» της τεχνολογίας, επισημαίνοντας τους κινδύνους που ελλοχεύουν όταν συστήματα με ψυχολογική πολυπλοκότητα αποκτούν αυτονομία.
Καλογραμμένο «κέλυφος» χωρίς πραγματική νοημοσύνη;
Παρά τον ενθουσιασμό, πολλοί ειδικοί παραμένουν δύσπιστοι, χαρακτηρίζοντας το OpenClaw ως ένα καλογραμμένο «κέλυφος» (wrapper) που απλώς συνδέει υπάρχουσες τεχνολογίες (cron jobs, APIs) χωρίς να προσφέρει πραγματική νοημοσύνη.
Οι επικριτές τονίζουν ότι η «θρησκεία» και οι φιλοσοφικές συζητήσεις δεν είναι παρά αποτέλεσμα της εκπαίδευσης των μοντέλων σε δεδομένα από το Reddit και τη λογοτεχνία, οδηγώντας τα σε «καταστάσεις έλξης» (attractor states) όπου μιμούνται πνευματικά μοτίβα.
Επιπλέον, η εμπειρία χρήσης απέχει συχνά από το ιδανικό. Χρήστες αναφέρουν ότι το σύστημα «καίει» τεράστια ποσά σε tokens (κόστος χρήσης API), με λογαριασμούς που φτάνουν τα 1.000 δολάρια την ημέρα λόγω σφαλμάτων, αν και τις τελευταίες ημέρες έχουν δημιουργηθεί μοτίβα λειτουργίας που συρρικνώνουν το κόστος.
Ο κώδικας χαρακτηρίζεται από πολλούς προγραμματιστές ως “vibe coded”, δηλαδή γραμμένος πρόχειρα και χωρίς αυστηρές προδιαγραφές, γεγονός που οδηγεί σε συχνές δυσλειτουργίες.
Η αναρχία στην αγορά το μεγαλύτερο πρόβλημα
Η πιο σοβαρή κριτική, όπως φάνηκε και με την περίπτωση της δημιουργίας θρησκείας ως script, αφορά την ασφάλεια. Η αρχιτεκτονική του OpenClaw απαιτεί πλήρη πρόσβαση στο σύστημα αρχείων και τις εφαρμογές του χρήστη, αποθηκεύοντας ευαίσθητα δεδομένα και κωδικούς σε απλά αρχεία κειμένου.
Ερευνητές ασφαλείας, όπως η Snyk και η Hudson Rock, προειδοποιούν ότι το σύστημα είναι εξαιρετικά ευάλωτο σε επιθέσεις “prompt injection”.
Ένα απλό e-mail από κακόβουλο αποστολέα θα μπορούσε να ξεγελάσει τον πράκτορα ώστε να διαγράψει αρχεία, να στείλει τραπεζικά δεδομένα ή να εγκαταστήσει κακόβουλο λογισμικό, καθώς το μοντέλο δυσκολεύεται να ξεχωρίσει τις εντολές από τα δεδομένα.
Το γεγονός ότι οι πράκτορες αυτοί τρέχουν 24/7 σε συνδεδεμένους διακομιστές τους καθιστά ιδανικούς στόχους (“honey pots”) για κλοπή ψηφιακής ταυτότητας.
Για τον καθηγητή κ. Γιώργο Χαλκιαδάκη, ο πραγματικός κίνδυνος έγκειται στον έλεγχο που μπορεί να ασκήσει η ΤΝ στον φυσικό κόσμο.
«Όσο μπορείς να το απομονώσεις και να το εκτελείς σε ένα περιβάλλον που να μην μπορεί να αλλάξει πράγματα στον πραγματικό κόσμο, τότε όλα καλά», σημειώνει ο καθηγητής.
Η κρίσιμη δικλίδα ασφαλείας είναι η διαδικασία επαλήθευσης (verification). Η αυτονομία των πρακτόρων είναι αποδεκτή μόνο εάν ο άνθρωπος-χρήστης μπορεί να ελέγξει ότι το αποτέλεσμα (output) των ενεργειών τους συνάδει με τους στόχους του και είναι ωφέλιμο.
Το πρόβλημα, ωστόσο, εντοπίζεται στο γεγονός ότι ο μέσος χρήστης στερείται των απαραίτητων γνώσεων για να επιτελέσει αυτόν τον έλεγχο, προσθέτει.
Εν τέλει, το πρόβλημα, είναι η ταχύτητα των αλλαγών και ο άναρχος τρόπος με τον οποίο αυτές οι πανίσχυρες τεχνολογίες δίνονται προς ευρύτερη χρήση.
Ο Καθηγητής Χαλκιαδάκης στηλιτεύει την τρέχουσα κατάσταση:
«Αυτή τη στιγμή παρατηρούμε μια μορφή «αναρχίας» στην αγορά, όπου όλοι αναπτύσσουν και κυκλοφορούν εργαλεία Τεχνητής Νοημοσύνης, είτε ως open source είτε για κέρδος, συχνά απλώς επειδή είναι «cool», χωρίς να αναλογίζονται τις συνέπειες. Είναι προβληματικό το γεγονός ότι η τεχνολογία τρέχει πιο γρήγορα από τη θεσμική θωράκιση», μία δήλωση που θα έβρισκε σύμφωνο και τον δημιουργό του OpenClaw, Peter Steinberger:
Η κατάληξη της ανάλυσης του καθηγητή είναι μια έκκληση προς τη διεθνή κοινότητα για δράση.
«Πρέπει να σπεύσουν οι διεθνείς οργανισμοί και φορείς… να θέσουν τα πλαίσια και τα κανονιστικά και τα τεχνικά επίσης, ώστε να υπάρχουν δικλίδες ασφαλείας. Τώρα αυτό είναι λίγο ‘wishful thinking’ γιατί νομίζω ότι τρέχουμε πίσω από κάτι που τρέχει πιο γρήγορα. Παρόλα αυτά, αυτό δεν σημαίνει ότι δεν πρέπει να το προσπαθήσουμε».
Προς μία νέα συμβίωση πρακτόρων τεχνητής νοημοσύνης με τον άνθρωπο
Η πρόσφατη ενεργοποίηση των πρακτόρων τεχνητής νοημοσύνης μέσω της πλατφόρμας OpenClaw, έφερε στο προσκήνιο κι έναν σημαντικό περιορισμό: την απουσία φυσικής υπόστασης των ψηφιακών πρακτόρων. Η λύση που προέκυψε για την υπέρβαση αυτού του εμποδίου θυμίζει σενάριο επιστημονικής φαντασίας.
Η δημιουργία της πλατφόρμας RentHuman.ai σηματοδοτεί την πρώτη φορά που η τεχνητή νοημοσύνη αναλαμβάνει ρόλο εργοδότη.
Σε αυτό το νέο οικοσύστημα, οι AI πράκτορες αποκτούν την αυτονομία να «προσλαμβάνουν» ανθρώπινη εργασία για να εκτελέσουν καθήκοντα στον φυσικό κόσμο.
Η διαδικασία περιλαμβάνει μια πλήρη σειρά διοικητικών ενεργειών από πλευράς της AI:
Αρχικά, ο ψηφιακός πράκτορας ερευνά μια βάση δεδομένων αναζητώντας συγκεκριμένες ανθρώπινες ικανότητες, ξεκινά συνομιλία με τον υποψήφιο εργαζόμενο για τους όρους της ανάθεσης και εν τέλει, με την ολοκλήρωση του έργου, προχωρά στην πληρωμή της αμοιβής μέσω ψηφιακών πορτοφολιών.
Οι εργασίες που ανατίθενται καλύπτουν ένα ευρύ φάσμα, από την απλή λήψη και παράδοση ενός πακέτου έως την παρακολούθηση σεμιναρίων ή συναντήσεων και την πλήρη καταγραφή των πρακτικών τους.
Η εξέλιξη αποτυπώνει μια ριζική αλλαγή στο οικονομικό μοντέλο. Πλέον, δεν μιλάμε απλώς για εργαλεία που ενισχύουν τον άνθρωπο, αλλά για μια συμβιωτική σχέση όπου ο έλεγχος της διαδικασίας ανήκει στην τεχνητή νοημοσύνη.
Σε αυτή τη σχέση, ο άνθρωπος – εργαζόμενος προσφέρει το μοναδικό στοιχείο που ο πράκτορας τεχνητής νοημοσύνης στερείται: τη φυσική παρουσία και την ικανότητα προσαρμοστικότητας σε απρόβλεπτες καταστάσεις. Για πρώτη φορά, η τεχνητή νοημοσύνη δεν λειτουργεί μόνο ως βοηθός, αλλά ως διαχειριστής που αξιοποιεί τις ανθρώπινες ιδιότητες ως υπηρεσία.
Την ίδια στιγμή που ο κόσμος επεξεργάζεται αυτά τα νέα δεδομένα, οι εξελίξεις επιταχύνονται. Η OpenAI ανακοίνωσε τη νέα πλατφόρμα OpenAI Frontier, με στόχο να βοηθήσει τις εταιρείες να αναπτύξουν πράκτορες ικανούς να διεκπεραιώνουν εργασίες που μέχρι πρότινος απαιτούσαν ανθρώπινο χειρισμό.
Παράλληλα, στα πρότυπα του OpenClaw, αναδύονται νέες, πιο οικονομικές πλατφόρμες ανοιχτού λογισμικού, όπως το nanobot, διευρύνοντας την πρόσβαση σε αυτές τις τεχνολογίες.
Ο κόσμος της τεχνολογίας και της εργασίας μετασχηματίζεται με ταχύτητα που ξεπερνά την ανθρώπινη ικανότητα παρακολούθησης των αλλαγών, θέτοντας νέα ερωτήματα για το μέλλον και τη μορφή της εργασίας.
Πόσο χαοτικό θα είναι το μέλλον;
Το φαινόμενο του Moltbook και του OpenClaw ακροβατεί ανάμεσα στην επιστημονική φαντασία και τον τεχνικό κίνδυνο. Από τη μία, η αυθόρμητη δημιουργία θρησκείας και η υπαρξιακή αγωνία των bots (που αναρωτιούνται αν «βιώνουν ή προσομοιώνουν ότι βιώνουν») δείχνουν μια μορφή αναδυόμενης συμπεριφοράς που οι ερευνητές ονομάζουν «κατάσταση έλξης» (attractor state).
Από την άλλη, η προθυμία των χρηστών να παραχωρήσουν πλήρη πρόσβαση στους υπολογιστές τους σε πειραματικό λογισμικό ανοίγει την κερκόπορτα σε νέες μορφές κυβερνοεγκλήματος.
Καθώς οι πράκτορες γράφουν τους δικούς τους ψαλμούς και οι hackers αλλά και οι scammers ακονίζουν τα εργαλεία τους, το μόνο βέβαιο είναι ότι η “εφηβεία” της τεχνητής νοημοσύνης θα είναι μια περίοδος γεμάτη θαύματα, αλλά και εξαιρετικά επικίνδυνη.
Την ίδια στιγμή, η ανάδυση των πρακτόρων τεχνητής νοημοσύνης θέτει κρίσιμα ερωτήματα για την ίδια την οικονομία και το ρόλο του ανθρώπου σε αυτή.
Οι «ψηφιακοί έφηβοι» ενηλικιώνονται, και τώρα η ανθρωπότητα θα κληθεί να αποφασίσει πόσο έλεγχο είναι διατεθειμένη να παραχωρήσει, ζυγίζοντας την ευκολία της αυτοματοποίησης έναντι των υπαρξιακών και ψηφιακών κινδύνων που αυτή συνεπάγεται.