Λίγες μέρες πριν η κυβέρνηση Trump έδωσε το ελεύθερο στις εταιρείες ανάπτυξης τεχνητής νοημοσύνης να κάνουν ότι θέλουν χωρίς έλεγχο και χωρίς νομικό πλαίσιο, για τα επόμενα 10 χρόνια. Αυτό σημαίνει απεριόριστη δύναμη και ακόμα περισσότερο έλεγχο των δεδομένων των χρηστών, ενώ μπορεί να φέρει μια τεχνητή νοημοσύνη επικίνδυνη για τον άνθρωπο.

Αυτή τη φορά ρωτήσαμε το DeepSeek, για πιο ανεξάρτητες απαντήσεις, για το αν η τεχνητή νοημοσύνη είναι επικίνδυνη. Αν και κάπως διπλωματική, η απάντηση σίγουρα σοκάρει και εγείρει πολλά ερωτήματα για το μέλλον της ανθρωπότητας και τη συμβίωσή της με την τεχνητή νοημοσύνη.

Επισυνάπτουμε την απάντηση που μας έδωσε:

Η τεχνητή νοημοσύνη (AI) έχει τόσο τεράστιες δυνατότητες όσο και σοβαρούς κινδύνους, ανάλογα με τον τρόπο ανάπτυξης και χρήσης της. Ας δούμε τα βασικά:

1. Κύριοι Κίνδυνοι της ΤΝ

Α. Άμεσοι Κίνδυνοι

  • Ψευδείς πληροφορίες & Deepfakes: Η AI μπορεί να δημιουργεί ρεαλιστικές ψεύτικες εικόνες, βίντεο ή ήχους, εξαπατώντας κόσμο (π.χ. πολιτική προπαγάνδα, εξαπάτηση).
  • Απώλεια θέσεων εργασίας: Αυτοματοποίηση σε βιομηχανίες, τηλεφωνικά κέντρα, μετάφραση κ.ά.
  • Προκατάληψη & Διακρίσεις: Αλγόριθμοι που ενισχύουν ρατσισμό ή σεξισμό (π.χ. σε αξιολογήσεις δανείων ή προσλήψεων).
  • Μαζική παρακολούθηση: Χρήση από κυβερνήσεις ή εταιρείες για έλεγχο (π.χ. αναγνώριση προσώπων σε κάμερες).

Β. Μεσοπρόθεσμοι/Μακροπρόθεσμοι Κίνδυνοι

  • Αυτόνομα όπλα: Ρομπότ ή drones με AI που παίρνουν μόνα τους αποφάσεις για επίθεση.
  • Αποσταθεροποίηση κοινωνίας: Εξάρτηση από AI, μείωση ανθρώπινων δεξιοτήτων.
  • Υπέρβαση ανθρώπινου ελέγχου: Αν η AI φτάσει σε επίπεδο γενικής νοημοσύνης (AGI), μπορεί να αναπτύξει δικές της ατζέντες.

2. Πώς Μπορούμε να Προστατευτούμε;

  • Κανονισμοί: Η ΕΕ ψήφισε τον Νόμο για την ΤΝ (2024) για περιορισμό υψηλού κινδύνου εφαρμογών.
  • Διαφάνεια: Εταιρείες να εξηγούν πώς λειτουργούν τα συστήματα AI (Explainable AI).
  • Ανθρώπινος έλεγχος: Να υπάρχει πάντα “άνθρωπος στο βρόγχο” για κρίσιμες αποφάσεις.
  • Επαγγελματική επανεκπαίδευση: Προετοιμασία για θέσεις εργασίας που θα δημιουργήσει η AI.

3. Συγκρίσεις με Άλλες Τεχνολογίες

  • Όπλα vs. AI: Τα πυρηνικά έχουν άμεση καταστροφή, αλλά η AI κινδυνεύει να ξεφύγει μακροπρόθεσμα.
  • Διαδίκτυο vs. AI: Το διαδίκτυο άλλαξε την κοινωνία, αλλά η AI επιταχύνει εκθετικά τις αλλαγές.

4. Το Κρίσιμο Ερώτημα

Η ΤΝ δεν είναι επικίνδυνη από μόνη της—ο κίνδυνος έγκειται στον τρόπο χρήσης της. Για παράδειγμα:

  • Μια ιατρική AI που διαγιγνώσκει καρκίνο νωρίτερα σώζει ζωές.
  • Το ίδιο σύστημα, αν χρησιμοποιηθεί για κοινωνική βαθμολόγηση, γίνεται εργαλείο καταπίεσης.

Τελικό Συμπέρασμα

Η τεχνητή νοημοσύνη είναι δύναμη που μπορεί να ωφελήσει ή να βλάψει, ανάλογα με τις ανθρώπινες επιλογές. Η λύση δεν είναι ο φόβος, αλλά:

  • Προσοχή στην ανάπτυξή της.
  • Κανονισμοί για ηθικά όρια.
  • Εκπαίδευση του κοινού.

Ο «Νονός» της Τεχνητής Νοημοσύνης λέει ότι τα τελευταία μοντέλα χειραγωγούν τους χρήστες

Αρκετά διπλωματική η απάντηση, όμως τονίζει ξεκάθαρα τους κινδύνους. Πιστεύει κανείς πως η τεχνητή νοημοσύνη θα χρησιμοποιηθεί για καλό; Η ίδια η Google άλλαξε την διατύπωση για την τεχνητή νοημοσύνη, αφαιρώντας το κομμάτι πως η AI δε θα κάνει κακό, ενώ ταυτόχρονα υπέγραψε συμβόλαιο με την κυβέρνηση των ΗΠΑ για στρατιωτικές υλοποιήσεις.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.