¡Cuánta razón! / Esto no puede acabar bien...
Arriba
Nuevo post
00:00
o
4
Enviado por matalotempollon el 15 jun 2022, 13:02

Esto no puede acabar bien...


chatbot,conciencia

Reportar por inadecuado o fuente incorrecta

Quizás también te interese:

Enlace a Así no se puede... Enlace a Coche bien equipado Enlace a El mensaje que más se envía en diciembre

Vídeo relacionado:

Enlace a Cuando las notas de suicidio hablan demasiado tarde. FUNDACION MOVEMBER [Inglés]
#1 por garkerk
16 jun 2022, 11:50

Un chatbot configurado para simular ser una IA consciente. No me lo invento, el experimento era precisamente ese.

A favor En contra 2(4 votos)
#3 por knd144
16 jun 2022, 17:25

A ver, que básicamente ha pasado "La prueba de Turing"; estoy seguro que la nota va en ese sentido, pero el titular tiene que vender.

A favor En contra 1(1 voto)
#4 por scriptthetroll
16 jun 2022, 17:54

En realidad le pidieron a una IA (entrenada para genera texto de forma realista) que generara texto simulando ser "una IA que ha cobrado conciencia"...

Por lo tanto la IA te genera estas respuestas que son según su algoritmo "una consecución de palabras simulando lo que le has pedido que simule xd", que para un humano podría ser "la prueba de la conciencia" pero para la IA son palabras vacías de significado

A favor En contra 1(1 voto)
#2 por bigkratos_92
16 jun 2022, 13:11

@garkerk Yo he leído varias de esas conversaciones y una de dos, o Google tiene una tecnología tan increíble que da miedo, o que el mismo ingeniero ha falsificado esas conversaciones, que de ser así no vería lógico echarlo por información confidencial revelada, sino por falsificación de información para traicionar a la empresa y darle mala imagen, no sé qué pensar la verdad.

A favor En contra 0(0 votos)

Deja tu comentario

Necesitas tener una cuenta en cuantarazon.com para poder dejar comentarios.

¡Registra tu cuenta ahora!