« Discussion aide:Outil de traduction » : différence entre les versions

Contenu supprimé Contenu ajouté
Aggeliki3 (discuter | contributions)
Aucun résumé des modifications
Balise : Révoqué
Aggeliki3 (discuter | contributions)
Balises : Révoqué Nouveau sujet
Ligne 16 :
La génération automatique d'images ou de textes crédibles est déjà possible. Par exemple, une fausse image d'une explosion du Pentagone le 22 mai 2023, partagée par des comptes financiers ainsi que par des médias russes, a entraîné une baisse momentanée de 0,3 % des cours boursiers aux États-Unis. L'IAG pourrait néanmoins acquérir une meilleure compréhension du contexte, interagir avec d'autres outils et se montrer plus convaincante, stratégique, personnalisée et autonome.
La capacité des modèles d'IA à produire du contenu très rapidement et à faible coût pourrait inonder internet de texte, d'images ou de vidéos générés automatiquement. Ce contrôle de l'information pourrait également être exploité par des régimes autoritaires à des fins de surveillance et de contrôle. Cela pourrait ainsi intensifier la diffusion de désinformation et de propagande. Une solution proposée serait l'adoption à grande échelle de systèmes numériques permettant de prouver anonymement sur internet que l'on est un humain, ce qui permettrait notamment de filtrer efficacement les faux comptes.
 
== Γενική τεχνητή νοημοσύνη ==
 
Η γενική τεχνητή νοημοσύνη (IAG) είναι μια τεχνητή νοημοσύνη ικανή να εκτελεί ή να μαθαίνει σχεδόν οποιαδήποτε γνωστική εργασία που χαρακτηρίζει τον άνθρωπο ή άλλα ζώα. Η δημιουργία τεχνητής νοημοσύνης γενικής χρήσης είναι ένας από τους κύριους στόχους εταιρειών όπως η OpenAI, η DeepMind και η Anthropic. Αποτελεί επίσης σημαντικό θέμα στην επιστημονική φαντασία και της μελλοντολογία. Παρόλο που η GPT-4 έχει έχουσα «σπίθες γενικής τεχνητής νοημοσύνης» δεν υπάρχει τεχνητή νοημοσύνη το 2024 που να θεωρείται συναινετικά γενική.
Αν και η γενική τεχνητή νοημοσύνη μπορεί να είναι πολύ χρήσιμη σε πολλούς τομείς, οι τρέχουσες μελέτες αξιολογούν τους πιθανούς κινδύνους αυτής της αναπτυσσόμενης τεχνολογίας. Ειδικότερα, οι κίνδυνοι της παραπληροφόρησης και της μαζικής ανεργίας. Σύμφωνα με εμπειρογνώμονες σε θέματα τεχνητής νοημοσύνης, όπως ο Stuart Russell, ο Yoshua Bengio ή ο Geoffrey Hinton και άλλοι ερευνητές τεχνητής νοημοσύνης, η απώλεια του ελέγχου θα μπορούσε επίσης να προκαλέσει υπαρξιακούς κινδύνους, όπως το τέλος της ανθρωπότητας.
 
Ορολογία [Επεξεργασία | επεξεργασία κώδικα]
 
Σύμφωνα με τους περισσότερους ειδικούς, η τεχνητή γενική νοημοσύνη (IAG) ή τεχνητή νοημοσύνη ανθρώπινου επιπέδου αναφέρεται στην ικανότητα μιας αυτόνομης μηχανής να εκτελεί όλες τις διανοητικές εργασίες που μπορεί να εκτελέσει ένας άνθρωπος. Αυτός ο (αρκετά) περιοριστικός ορισμός σημαίνει ότι μια τεχνητή νοημοσύνη μπορεί να παράγει κείμενο υψηλής ποιότητας και να είναι πολύ ταχύτερη από έναν άνθρωπο χωρίς να χαρακτηρίζεται ως «γενική», αν εξακολουθούν να υπάρχουν εργασίες που δεν εκτελούνται τόσο καλά όσο ένας άνθρωπος. Αντίθετα, το OpenAI ορίζει το IAG ως ένα εξαιρετικά αυτόνομο σύστημα ικανό να προσπεράσει τον άνθρωπο στις περισσότερες εργασίες οικονομικού ενδιαφέροντος.
Ένα σύστημα εμπειρογνωμόνων, ή «στενή» τεχνητή νοημοσύνη είναι ένα δυνητικά πολύ ικανό υπολογιστικό σύστημα που λειτουργεί σε ένα περιορισμένο πλαίσιο, συχνά επικεντρωμένο σε μια συγκεκριμένη εργασία.
Ο όρος «ισχυρή τεχνητή νοημοσύνη», από την άλλη πλευρά, περιλαμβάνει συχνότερα μια φιλοσοφική έννοια της συνείδησης, πράγμα που σημαίνει ότι οι δυνατότητες της τεχνητής νοημοσύνης δεν αρκούν για να πούμε αν είναι «ισχυρή». Επομένως, μια τεχνητή νοημοσύνη μπορεί μερικές φορές να περιγράφεται ως «αδύναμη» με αυτή την έννοια, ανεξάρτητα από τις ικανότητές της, αν δεν έχει «συνείδηση». Αυτές οι έννοιες αναφέρονται στην υπόθεση της ισχυρής και της αδύναμης ΤΝ στο πείραμα σκέψης του επιχειρήματος του κινέζικου δωματίου.
Ο όρος τεχνητή υπέρ-νοημοσύνη περιγράφει μια τεχνητή νοημοσύνη με διανοητικές ικανότητες πολύ ανώτερες από αυτές του ανθρώπου σε όλους σχεδόν τους τομείς. Οι ειδικοί δείχνουν μεγάλη αβεβαιότητα σχετικά με το πόσο χρόνο θα χρειαζόταν για να μεταβεί από μια τεχνική νοημοσύνη σε μια τεχνητή υπερευφυΐα, με εκτιμήσεις που κυμαίνονται από λιγότερο από μια ώρα έως αρκετές δεκαετίες, υποθέτοντας ότι αυτό είναι εφικτό. Αλληλοεπιδράσει
 
Παραπληροφόρηση και χειραγώγηση[Επεξεργασία | επεξεργασία κώδικα]
 
Η αυτόματη δημιουργία αξιόπιστων εικόνων ή κειμένων είναι ήδη δυνατή. Για παράδειγμα, μια ψευδής εικόνα έκρηξης στο Πεντάγωνο στις 22 Μαΐου 2023, η οποία κοινοποιήθηκε από οικονομικούς λογαριασμούς και τα ρωσικά μέσα ενημέρωσης, προκάλεσε στιγμιαία πτώση των αμερικανικών χρηματιστηριακών τιμών κατά 0,3%. Η γενική τεχνητή νοημοσύνη θα μπορούσε ωστόσο να αποκτήσει καλύτερη κατανόηση του πλαισίου, να αλληλοεπιδράσει με άλλα εργαλεία και να είναι πιο πειστική, στρατηγική, εξατομικευμένη και αυτόνομη.
Η ικανότητα των μοντέλων τεχνητής νοημοσύνης να παράγουν περιεχόμενο πολύ γρήγορα και με χαμηλό κόστος θα μπορούσε να κατακλύσει το διαδίκτυο με αυτόματα παραγόμενα κείμενα, εικόνες ή βίντεο. Αυτός ο έλεγχος των πληροφοριών θα μπορούσε επίσης να αξιοποιηθεί από αυταρχικά καθεστώτα για σκοπούς επιτήρησης και ελέγχου. Αυτό θα μπορούσε να εντείνει τη διάδοση της παραπληροφόρησης και της προπαγάνδας. Μια προτεινόμενη λύση θα ήταν η ευρεία υιοθέτηση ψηφιακών συστημάτων που θα επέτρεπαν στους χρήστες να αποδεικνύουν ανώνυμα στο Διαδίκτυο ότι είναι άνθρωποι, γεγονός που θα επέτρεπε το αποτελεσματικό φιλτράρισμα των ψεύτικων λογαριασμών. [[Utilisateur:Aggeliki3|Aggeliki3]] ([[Discussion utilisateur:Aggeliki3|discuter]]) 1 juin 2024 à 21:54 (CEST)
Revenir à la page « Outil de traduction ».