Το γεγονός ότι η AI χρησιμοποιείται και στη παραγωγή κειμένου το γνωρίζουμε ήδη πολύ καλά και με βάσει την εμπειρία μας το κάνουν πολλές ιστοσελίδες και φαίνεται. Γνωστή ιστοσελίδα, που δεν θα θέλαμε να αναφέρουμε το όνομά της, αντιγράφει περιεχόμενο από το techmaniacs.gr συστηματικά και μάλιστα το AI slop είναι τόσο στο θεό που δεν μπαίνουν στον κόπο να σβήσουν το Techmaniacs από τις αναφορές των πηγών που δίνει το AI εργαλείο και οι οποίες καταλήγουν αυτούσιες στο δημοσιευμένο άρθρο.
Κάτι τέτοιο θα έπρεπε να μας χαροποιεί αλλά μας εκνευρίζει, καθώς το τελευταίο διάστημα η Google ρανκάρει το εν λόγω site στην αναζήτηση και στο Google News με massively generated AI άρθρα, επιβραβεύοντας δηλαδή την πρακτική που ίδια αναφέρει ότι είναι κατακριτέα στο documentation για το core update που τρέχει αυτή την περίοδο, το March 2026 core update, πετυχαίνοντας να χακάρει τον αλγόριθμο της Google.
Η περίπτωση των New York Times
Έχοντας κάνει τη μικρή αυτή εισαγωγή με τις παρατηρήσεις μας στο χώρο στον οποίο δραστηροποιούμαστε και εμείς, δεν θα μπορούσαμε να μην αναφερθούμε στη περίπτωση ιστορικών εφημερίδων που έπεσαν στην εν λόγω παγίδα, που ξεκίνησαν να χρησιμοποιούν την AI σαν ένα εργαλείο και κατέληξαν να εκτεθούν δημόσια.
Ακριβώς εδώ είναι το πρόβλημα όμως, όταν το AI ξεφεύγει από ένα απλό εργαλείο συνεπιμέλειας κειμένου ή ιδεών και γίνεται ένα εργαλείο AI slop σε μεγάλη ιστορική εφημερίδα.
Η συζήτηση γύρω από την περίπτωση των New York Times, ξεκίνησε μόλις πριν από μερικές ημέρες, όταν σε μια στήλη που έφερε τον τίτλο Modern Love και η οποία είχε δημοσιευθεί τον περασμένο Νοέμβριο, ένα άρθρο που εμφανίστηκε είχε έντονα δείγματα χρήσης AI. Η συζήτηση ξεκίνησε στο X, όταν η Becky Tuch, του Lit Mag News, δημοσίευσε ένα μέρος του κειμένου με την ανάρτησή της να συνοδεύεται από τη φράση “this reads EXACTLY like AI slop.
Η συγγραφέας της στήλης δεν άργησε να το δει και να απαντήσει, αναφέροντας χαρακτηριστικά στο περιοδικό ότι δεν αντεγραψε και επικολλησε κείμενο που δημιούργησε ένα AI μοντέλο, αλλά αντίθετα το χρησιμοποίησε συνεργατικά, όπως και μια πληθώρα εργαλείων,για παράδειγμα το ChatGPT, το Claude, το Gemini στην προσπάθειά της να βρει έμπνευση και καθοδήγηση, όπως και να βελτιώσει το τελικό κείμενο που έδωσε στη δημοσιότητα.
Παραθέτουμε σχετικό απόσπασμα για να μπορέσει ο αναγνώστης να βγάλει τα δικά του συμπεράσματα:
Not hate. Not anger. Just the flat finality of a heart too tired to keep trying.
That’s when I stopped fighting.
I didn’t give up. I shifted.
I stopped thinking love was something I had to prove with court documents and supervised visits and legal bills. I stopped chasing every possible way to make him see I had changed. I started focusing on actually changing.
Ένα από τα σημεία δηλαδή που ίσως φωνάζει AI είναι ίσως η συγκεκριμένη τεχνική που χρησιμοποιείται στο κείμενο και η οποία περιλαμβάνει την εμπειρία της με τη μορφή όχι το X, όχι το X αλλά το Y, μια προσέγγιση που αποκαλείται rule of three. Έχει υποστηριχθεί από διάφορες πλευρές δηλαδή, ότι τα LLMs συχνά χρησιμοποιούν το εν λόγω format, το οποίο είναι διάχυτο σε όλο το κείμενο της συγγραφέως.
Γρήγορα δεν άργησε να δημιουργηθεί μια έντονη συζήτηση γύρω από τις δημοσιεύσεις αυτές που ξεκίνησαν στα social media, με άλλους να αναφέρουν ότι πρόκειται για AI slop και άλλους, όπως η συγγραφέας Ann Bauer να δηλώνει ότι κάτι τέτοιο οφείλεται στο editing και κάνει λόγο για έναν συγκεκριμένο editor στους NYT όπου κάνει edit κείμενα με έναν συγκεκριμένο τρόπο, όπως αυτόν.
Τι απαντά η εφημερίδα
Σε δήλωσή της η εφημερίδα αναφέρει ότι η δημοσιογραφία στην εφημερίδα αποτελεί αποκλειστικά ανθρώπινη υπόθεση και ότι κάτι τέτοιο δεν θα αλλάξει. Καθώς η τεχνολογία συνεχίζει να εξελίσσεται συνεχίζουμε να αξιολογούμε τα best practices για το newsroom μας, γράφει η δήλωση.
Βέβαια, παραπέμπει στη πολιτική όσον αφορά το AI στο οποίο επισημαίνει ότι οποιαδήποτε χρήση AI εργαλείου θα πρέπει να συνοδεύεται από ανθρώπινη επίβλεψη και να ακολουθεί τα standards της δημοσιογραφίας και του editing. Ακολουθείται όμως αυτό πάντα; Χλωμό.
Η περίπτωση του Ars Technica
Ακόμη πιο χαρακτηριστική είναι η περίπτωση του arstechnica , το οποίο και αυτό βρέθηκε να δημοσιεύει generated δηλώσεις ανθρώπων που ποτέ δεν τις είπαν. Προσωπικά θεωρούσα και θεωρώ το arstechnica ως ένα από τα πιο έγκυρα τεχνολογικά sites εκεί έξω, που δυστυχώς ούτε αυτό ξέφυγε από τη χρήση AI εργαλείου με την εταιρεία να τερματίζει στη συνέχεια την εργασιακή σχέση με τον δημοσιογράφο.
Το Ars Technica δημοσίευσε ένα άρθρο που περιείχε δηλώσεις που ποτέ δεν υπήρξαν και αποδόθηκαν σε μια πηγή που ποτέ δεν έκανε αυτές τις δηλώσεις. Αποτελεί ένα μεγάλο failure όσον αφορά τα standards που έχουμε θέσει, αναφέρει σε δήλωσή του ο Ken Fisher, editor in chief στο Ars Technica.
Η έρευνα σοκ
Σε μια εποχή που το AI έχει φθάσει στα επίπεδα που έχει φτάσει και χρησιμοποιείται για καθοδήγηση, είναι αναπόφευκτο ότι το χρώμα του, όποιο χρώμα μπορεί να έχει ένα AI εργαλείο θα περάσει στο τελικό κείμενο. Και δεν πρόκειται μόνο για ένα άρθρο μιας συντάκτριας, αλλά το γενικότερο πρόβλημα που παρατηρείται στις μέρες μας με χρήση AI εργαλείων έκανε ορισμένους ερευνητές να θέλουν να το ψάξουν περισσότερο.
Ειδικότερα, με τη χρήση ενός εργαλείου ανίχνευσης μοτίβων χρήσης AI από την startup Pangram Labs, ανακάλυψαν ότι σχεδόν το 9% των άρθρων που δημοσιεύονται είναι είτε μερικώς είτε πλήρως φτιαγμένα με τη χρήση AI εργαλείου.
Όταν εστίασαν σε άρθρα γνώμης, δηλαδή σε στήλες σε online μέσα που διέθεταν άρθρα γνώμης, εντόπισαν ότι οι πιθανότητες τα κείμενα να είχαν δημιουργηθεί με τη βοήθεια της AI ήταν 6 φορές μεγαλύτερες.
Η σημαντική διευκρίνηση
Επειδή ένα εργαλείο ανίχνευσης AI περιεχομένου, λέει ότι το κείμενο έχει AI δεν σημαίνει απαραίτητα ότι έχει χρησιμοποιηθεί AI στη σύνταξή του. Και αυτά ακριβώς τα εργαλεία κάνουν συνεχώς λάθη.
Αξίζει να σημειώσω ότι ποτέ μου δεν χρησιμοποίησα και ούτε θα χρησιμοποιήσω AI για τη σύνταξη κειμένου, ούτε καν για τη μορφοποίηση, ή τον ορθογραφικό έλεγχο. Χρησιμοποιώ εργαλείο speech to text σε ορισμένα άρθρα, που μετατρέπει την ομιλία σε κείμενο σε python script που τρέχει local με api key του Gemini και με custom prompt για να έχω τον απόλυτο έλεγχο. Είστε ελεύθεροι να περάσετε οποιοδήποτε άρθρο του προφίλ μου σε εργαλεία ανίχνευσης AI μοτίβων για να το διαπιστώσετε και οι ίδιοι.
Πηγές που χρησιμοποιήθηκαν:
- Futurism.com: New York Times Accused of Running AI-Generated Article
- Futurism.com: Study: New York Times Has Published Extensive AI-Generated Articles
- Πηγή αρχικής εικόνας: Unsplash.com
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.






























![Samsung Galaxy S26 Ultra Review: Είναι τελικά Ultra; [Βίντεο] Galaxy S26 ultra review](https://techmaniacs.gr/wp-content/uploads/2026/03/Galaxy-S26-ultra-review-218x150.webp)















Πολύ φιλικά. Το άρθρο σου είναι κακογραμμένο και σε κάποια σημεία δυσνόητο. Στη θέση σου θα το περνούσα από ένα ΑΙ και θα έκανα διορθώσεις να το φέρω στα μέτρα μου. Εναλλακτικά, θα πρέπει να εξασκήσεις τον γραπτό σου λόγο και να διορθώνεις περισσότερες φορές το κείμενο σου.
οι “New York Times” είναι ιστορική εφημερίδα και δυστυχώς, το γεγονός αυτό την κάνει ακόμα πιο μικρή