¡Cuánta razón! / Cada vez más cerca de Terminator
Arriba
6
Enviado por 123dale el 5 jun 2023, 12:26

Cada vez más cerca de Terminator


arma autónoma,matar,humano,simulación

Reportar por inadecuado o fuente incorrecta

Quizás también te interese:

Enlace a La distancia más corta entre dos puntos Enlace a El mensaje que más se envía en diciembre Enlace a Las escenas más delirantes en el interior de un ascensor

Vídeo relacionado:

Enlace a Simulando el choque de un Tesla contra un muro a distintas velocidades
#1 por mrpizza
6 jun 2023, 01:48

No entiendo como esto no les parece gravisimo a todos. Un dia una IA va a hacer un calculo de utilidades con el criterio que le salga de los putos huevos y de esa les aseguro que no va a haber vuelta atrás. En el preciso momento que la tecnologia de computación cuántica entre en sinergia con la IA como tecnología y concepto y automaticamente condenaste a la humanidad a la extinción.

1
A favor En contra 1(5 votos)
#2 por entronador
6 jun 2023, 07:29

#1 #1 mrpizza dijo: No entiendo como esto no les parece gravisimo a todos. Un dia una IA va a hacer un calculo de utilidades con el criterio que le salga de los putos huevos y de esa les aseguro que no va a haber vuelta atrás. En el preciso momento que la tecnologia de computación cuántica entre en sinergia con la IA como tecnología y concepto y automaticamente condenaste a la humanidad a la extinción.@mrpizza y quién ha dicho que no les parezca gravísimo. Los parámetros iniciales eran, destruir a su objetivo primario y eliminar cualquier obstáculo que intente impedirlo. El operador que ordenó parar el ataque se convirtió en un obstáculo que intentaba impedir su objetivo primario.
Luego repitieron el ejercicio con los parámetros destruir el objetivo primario, eliminar cualquier obstáculo que impida cumplir su objetivo primario y no atacar al operador/aliado, ¿el resultado? el drone cortó las comunicaciones tras recibir la orden de abortar el ataque. El problema no es la inteligencia artificial porque por fortuna, aún no es inteligente y solo la "utiliza" para ver cómo puede cumplir su objetivo, el problema es como se configura, si la prioridad es cumplir el objetivo primario, quizás deberían cambiar la prioridad de las órdenes, por ejemplo: obedecer las ordenes del centro de control, si pierde el contacto volver a la base abortando cualquier ataque, no atacar aliados, destruir el objetivo principal

A favor En contra 2(2 votos)
#3 por saberkenosabes
6 jun 2023, 08:12

#3 #3 saberkenosabes dijo: #3 entramos en la incertidumbre de Asimov, cuando un robot tenía ke rescatar a una persona y se daba la vuelta por ke peligraba su funcionamiento, pero su prioridad era rescatar a la persona.

Solo ke al revés.
entramos en la incertidumbre de Asimov, cuando un robot tenía ke rescatar a una persona y se daba la vuelta por ke peligraba su funcionamiento, pero su prioridad era rescatar a la persona.

Solo ke al revés.

2
A favor En contra 3(3 votos)
#4 por 1joachim1
6 jun 2023, 12:14

#3 #3 saberkenosabes dijo: #3 entramos en la incertidumbre de Asimov, cuando un robot tenía ke rescatar a una persona y se daba la vuelta por ke peligraba su funcionamiento, pero su prioridad era rescatar a la persona.

Solo ke al revés.
@saberkenosabes pero las propias leyes de asimov pueden ser modificadas (y han sido revisadas ya). es tan fácil como colocar datos en la rom de prioridades.

por ejemplo:

-mantén la comunicación como prioridad absoluta
-mantén a la lista blanca / operador con vida atoda costa como prioridad absoluta.
-cumple las directrices dictadas como prioridad alta
-regresa a la base y desactivate en caso de entrar en un loop infinito como prioridad media
-mantén la integridad del robot como prioridad mas baja

las rom son memorias de lectura únicamente no podrán ser sobreescritas por el robot.

como ves si le ordenas cumplir "deshazte del objetico eliminando todos los posibles obstaculos", aunque eliminar al operador sea la mejor opción para cumplir esa mision no podrá hacerlo, por que mantenerlo con vida sería prioritario sobre cumplir la misión. y en el caso de darle ordenes contradictorias (elimina y no lo hagas) volverá al punto de inicio y se desactivará. en el caso que no pueda volver (ha sido dañado) la autodestrucción (para evitar caer en manos enemigas) sigue siendo una opción. cosa que no pasaría al usar las leyes de Asimov.

de todas formas las propias leyes de Asimov no podrían ser utilizadas en robotica militar.

1
A favor En contra 1(1 voto)
#5 por scriptthetroll
6 jun 2023, 12:52

A ver bros

Es una simulación

Las simulaciones se usan para testear tecnologías y arreglar errores

Por Dios que dramáticas que estamos

A favor En contra 1(1 voto)
#6 por saberkenosabes
6 jun 2023, 13:09

#4 #4 1joachim1 dijo: #3 @saberkenosabes pero las propias leyes de asimov pueden ser modificadas (y han sido revisadas ya). es tan fácil como colocar datos en la rom de prioridades.

por ejemplo:

-mantén la comunicación como prioridad absoluta
-mantén a la lista blanca / operador con vida atoda costa como prioridad absoluta.
-cumple las directrices dictadas como prioridad alta
-regresa a la base y desactivate en caso de entrar en un loop infinito como prioridad media
-mantén la integridad del robot como prioridad mas baja

las rom son memorias de lectura únicamente no podrán ser sobreescritas por el robot.

como ves si le ordenas cumplir "deshazte del objetico eliminando todos los posibles obstaculos", aunque eliminar al operador sea la mejor opción para cumplir esa mision no podrá hacerlo, por que mantenerlo con vida sería prioritario sobre cumplir la misión. y en el caso de darle ordenes contradictorias (elimina y no lo hagas) volverá al punto de inicio y se desactivará. en el caso que no pueda volver (ha sido dañado) la autodestrucción (para evitar caer en manos enemigas) sigue siendo una opción. cosa que no pasaría al usar las leyes de Asimov.

de todas formas las propias leyes de Asimov no podrían ser utilizadas en robotica militar.
correcto, pero no deja de ser por ello la primera cuestión a los fundamentos impuestos a una IA, Asimov fue un visionario al cual deberían leer todos los programadores de IA antes de jugar a la manzana del Edén.

Bien argumentado, por cierto.👍🏻

A favor En contra 0(0 votos)

Deja tu comentario

Necesitas tener una cuenta en cuantarazon.com para poder dejar comentarios.

¡Registra tu cuenta ahora!