¡Cuánta razón! / Aún necesita algunos retoques
Arriba
7
Enviado por ladeflix el 15 nov 2021, 12:00

Aún necesita algunos retoques


inteligencia artificial,juicios morales,racista,misógina

Reportar por inadecuado o fuente incorrecta

Quizás también te interese:

Enlace a Las prioridades de algunos Enlace a Aún sin acostumbrarse Enlace a Tatuajes horribles para recordarnos que algunos errores son difíciles de borrar

Vídeo relacionado:

Enlace a Americanos descubren los Conguitos y los tachan de racistas
#3 por amerak
16 nov 2021, 15:18

vamos a ver, una inteligencia artificial será tan buena como la información con la que fue entrenada, dicho esto, el articulo menciona que fue entrenada con 1.7 millones de juicios éticos de ciudadanos estadounidenses, lo cual de por si explica bastante, sino que ademas parte de estos juicios provenían de Reddit (al menos no usaron 4chan, supongo). Ahora si una Inteligencia Artificial entrenada por estadounidenses se vuelve machista y misógina, esto dice mucho acerca de la sociedad que la entrenó.

Para finalizar, decir que esta inteligencia artificial se considera que acertó entre un 85% a un 92% de las preguntas, por lo que me hace ver que aunque la misoginia y el racismo son voces fuertes en Estados Unidos afortunadamente podemos llegar a acuerdos éticos y morales con una gran mayoría de estos.

sería interesante ver a que resultados llegaría siendo educada en distintos países, serviría un poco para ver un reflejo de lo que piensan los ciudadanos, no me cabe duda que en mi país, no solo seria racista y misógina, sino que ademas xenófoba y muchas otras mas, sino no me explico como a menos de una semana de elección de presidente, mas de un 20% quiera votar por el candidato de ultra-derecha conservador, negacionista del cambio climático, que quiere dar mas poder a los militares e incluso que puedan intervenir mensajes, llamadas, etc. que si bien no quiere hacer un muro en la frontera quiere hacer una zanja, que mandaría a la cárcel a una mujer que se realice un aborto, aunque el embarazó sea producto de una violación o si peligra su vida.

1
A favor En contra 11(11 votos)
#1 por ranagha
16 nov 2021, 14:36

La inteligencia artificial está equivocada, o los juicios Morales que tenemos hoy en día no son los correctos?

A favor En contra 3(9 votos)
#5 por shishio79
16 nov 2021, 17:52

No hay ya miles de tipos en internet haciendo ese mismo trabajo con idénticos resultados?

A favor En contra 2(2 votos)
#6 por garkerk
17 nov 2021, 09:25

La gente no tiene ni puta idea de IA, y por eso venden estos titulares amarillistas.

Esa IA no estaba entrenada para "tomar decisiones morales". Sólo para generar respuestas en ese campo. Y como dice #3 #3 amerak dijo: vamos a ver, una inteligencia artificial será tan buena como la información con la que fue entrenada, dicho esto, el articulo menciona que fue entrenada con 1.7 millones de juicios éticos de ciudadanos estadounidenses, lo cual de por si explica bastante, sino que ademas parte de estos juicios provenían de Reddit (al menos no usaron 4chan, supongo). Ahora si una Inteligencia Artificial entrenada por estadounidenses se vuelve machista y misógina, esto dice mucho acerca de la sociedad que la entrenó.

Para finalizar, decir que esta inteligencia artificial se considera que acertó entre un 85% a un 92% de las preguntas, por lo que me hace ver que aunque la misoginia y el racismo son voces fuertes en Estados Unidos afortunadamente podemos llegar a acuerdos éticos y morales con una gran mayoría de estos.

sería interesante ver a que resultados llegaría siendo educada en distintos países, serviría un poco para ver un reflejo de lo que piensan los ciudadanos, no me cabe duda que en mi país, no solo seria racista y misógina, sino que ademas xenófoba y muchas otras mas, sino no me explico como a menos de una semana de elección de presidente, mas de un 20% quiera votar por el candidato de ultra-derecha conservador, negacionista del cambio climático, que quiere dar mas poder a los militares e incluso que puedan intervenir mensajes, llamadas, etc. que si bien no quiere hacer un muro en la frontera quiere hacer una zanja, que mandaría a la cárcel a una mujer que se realice un aborto, aunque el embarazó sea producto de una violación o si peligra su vida.
@amerak , si daba respuestas racistas, es porque los textos con los que construir (o repetir) respuestas eran racistas.

NO existe tecnología actual para construir IA's fuertes (las de las películas) que posean cualidades de los seres inteligentes como autonomía, conciencia, ni moralidad (que requiere de una conciencia).

1
A favor En contra 2(2 votos)
#7 por garkerk
17 nov 2021, 09:27

#6 #6 garkerk dijo: La gente no tiene ni puta idea de IA, y por eso venden estos titulares amarillistas.

Esa IA no estaba entrenada para "tomar decisiones morales". Sólo para generar respuestas en ese campo. Y como dice #3 @amerak , si daba respuestas racistas, es porque los textos con los que construir (o repetir) respuestas eran racistas.

NO existe tecnología actual para construir IA's fuertes (las de las películas) que posean cualidades de los seres inteligentes como autonomía, conciencia, ni moralidad (que requiere de una conciencia).
@garkerk De hecho, nuestros mayores avances en este campo hasta la fecha los podemos ver en modelos monolíticos como GPT3 o el nuevo de microsoft.

Son el culmen de esta tecnología.

Parece que adquieren la capacidad de "entender" el funcionamiento de algunas cosas, como ecuaciones, en lugar de "memorizar" posibles respuestas. Eso es lo más lejos que hemos llegado.

A favor En contra 1(1 voto)
#4 por ampardos
16 nov 2021, 16:56

También le pasa a muchas personas eso

A favor En contra 1(1 voto)
#2 por jamsexion
16 nov 2021, 14:44

Normal.

A favor En contra 4(6 votos)

Deja tu comentario

Necesitas tener una cuenta en cuantarazon.com para poder dejar comentarios.

¡Registra tu cuenta ahora!