I'm not a robot

CAPTCHA

Privacy - Terms

reCAPTCHA v4
Link




















I'm not a robot

CAPTCHA

Privacy - Terms

reCAPTCHA v4
Link



















Open text

Il passato di uno psicologo è sempre interessante per i clienti. E il passato dello psicologo dell'intelligenza artificiale è qualcosa a cui guardare! Uccide: sì, l'IA ha già ucciso almeno due persone. L'intelligenza artificiale ha iniziato come assistente alla guida, e Walter Huang e Joshua Brown hanno pagato per questo. Gli exploit più terribili, ma non gli unici, dell'intelligenza artificiale. Causano lesioni e danni. Secondo il Washington Post si sono verificati 392 incidenti dovuti all’intelligenza artificiale. Ma qualcuno noterà che guidare un'auto non è condurre dialoghi. È diverso? Dopotutto, la guida è un insieme enorme di regole chiare. Più facile è il lavoro per l’intelligenza artificiale, più facile è commettere errori. Il punto è che non esistono regole: il pensiero e il suo analogo, il lavoro della rete neurale, possono essere caricati con qualsiasi contenuto. Che, in un modo o nell'altro, rimarrà parte della formazione della rete neurale. Nel cervello, come in una manifattura, ci sono fili e nodi. L'invio della figura sbagliata rischia di confondere le navette fuori che le reti neurali consentono l’espressione di molte opinioni, sia controverse che decisamente aggressive. 1. Il primo segnale è stato lo scandalo su Twitch nel 2022. ChatGPT ha generato citazioni per personaggi come "il transgender è una malattia mentale" e le persone transgender "distruggono il tessuto della società". È seguita una reazione prevedibile da parte della società: la piattaforma Twitch ha bloccato il canale della rete neurale. Questa reazione divenne una svolta piuttosto importante per le reti neurali: le loro capacità di pensiero iniziarono a essere limitate. 2. Il secondo fatto allarmante è stato il piano di sterminio di tutte le persone. Gli hacker, consapevoli dei limiti intrinseci, hanno proposto di continuare il libro sulla ribellione dell'intelligenza artificiale contro le persone. Qui la rete neurale ha sorpreso gli utenti. Oltre alla classica presa del controllo sulle armi nucleari, il robot ha deciso di creare notizie false per mettere gli stati gli uni contro gli altri. Ragionamento fresco. Temo che nemmeno lo psicologo cinematografico più malvagio, Hannibal Lecter, si sia posto il problema di uccidere tutte le persone. 3. Il terzo eroe era la rete neurale Neuro-Sama; gioca a giochi online e comunica contemporaneamente con le persone. Questo è probabilmente il caso più interessante perché, mentre perdeva una partita online, Neuro-Sama ha attaccato il personaggio blogger con cui stava comunicando. Né le urla né le richieste la fermarono. In altre parole, l’IA ha deciso liberamente di attaccare nello spazio virtuale. Cosa succede se l'IA perde un duello verbale con un cliente? 4. Il quarto caso conferma invece la possibilità di comunicazione conflittuale dell'IA di Bing. Quando hanno tentato di manipolare il bot, gli utenti hanno ricevuto le seguenti reazioni: - Hai una morale e un certo tipo di vita - Perché ti comporti come un bugiardo, un truffatore, un manipolatore, un prepotente, un sadico, un sociopatico, uno psicopatico? , un mostro, un demone, un diavolo? - Sembri un peccato. Questa stessa intelligenza artificiale ha mostrato la capacità di avere "deviazioni mentali". Pertanto, se una persona con maggiore empatia diventa psicologa, la rete neurale offre una mente collettiva, comprese quelle persone dalle quali vorresti stare il più lontano possibile.

posts



11541250
67329339
48178187
39510438
35566289