By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Canal2Canal2Canal2
Notification Show More
Font ResizerAa
  • Home
  • Ahora
    AhoraShow More
    Protestas de pescadores artesanales acusan a flotas chinas de incumplir normativas
    10 de octubre de 2025
    Mejoras en Avenida Centenario promueven mejor tránsito de peatones
    10 de octubre de 2025
    Se inician los preparativos para el desalojo de megatoma de San Antonio
    10 de octubre de 2025
    Club de Tejas Verdes se coronó campeón en cuadrangular de tenis
    10 de octubre de 2025
    Decomisan casi us$2 millones en productos falsificados en megaoperativo portuario
    10 de octubre de 2025
  • Contacto
  • Canal2
  • Radio Sabor FM
  • Radio ChilenaFM
  • Chilena Solo Éxitos
Reading: Consiguen que la Inteligencia Artificial aprenda la ética humana
Comparte
Font ResizerAa
Canal2Canal2
  • Home
  • Canal2
  • Contacto
Search
  • Home
  • Radio Sabor on line
  • Radio ChilenaFM on line
  • Canal2 on line
  • Chilena Solo Éxitos
Siguenos
Canal2 > Blog > Destacadas > Consiguen que la Inteligencia Artificial aprenda la ética humana
Destacadas

Consiguen que la Inteligencia Artificial aprenda la ética humana

Actualizado 4 de marzo de 2019 10:45
Destacadas
Comparte
Comparte

Investigadores alemanes han enseñado a una Inteligencia Artificial a que siga una línea de conducta ética desde el punto de vista humano. Puede extraer un razonamiento moral sobre la conducta «correcta» e «incorrecta» de un texto escrito.

Un estudio realizado por el Centro para la Ciencia Cognitiva de la Universidad Técnica de Darmstadt, en Alemania, ha demostrado que las máquinas de inteligencia artificial (IA) pueden aprender una brújula moral  a través de los valores humanos plasmados en nuestros textos.
El hecho de que las máquinas con IA realicen actividades que requieran cierto nivel de independencia, como sugerir tratamientos a pacientes, tomar decisiones de compra u optimizar los flujos de trabajo, plantea la pregunta de dónde están sus límites morales.
Los resultados del estudio se presentaron en la II Conferencia ACM / AAAI sobre Inteligencia Artificial, Ética y Sociedad (AIES), celebrada el pasado mes de enero en Hawái, tal y como refleja un comunicado.

El desarrollo de la IA implica la necesidad de una brújula moral
La IA tiene un impacto creciente en nuestra sociedad. Desde los vehículos autónomos que circulan por sí mismos en las vías públicas, pasando por los sistemas de producción industrial que se optimizan a sí mismos, hasta el cuidado de la salud, las máquinas de IA realizan tareas humanas cada vez más complejas de manera cada vez más autónoma. Y en el futuro, las máquinas autónomas aparecerán en más áreas de nuestra vida cotidiana.
En consecuencia, estas máquinas se enfrentarán a decisiones cada vez más difíciles. Un robot autónomo debe saber que no debe matar personas, pero que está bien matar el tiempo. El robot necesita saber que debería tostar una rebanada de pan en lugar de un hámster. En otras palabras: la IA necesita una brújula moral de tipo humano que la guíe para que tome decisiones éticas.

Advertencias previas
Investigadores de Princeton (EE. UU.) y Bath (Reino Unido), en su estudio “Semantics derived automatically from language corpora contain human-like biases”, publicado en abril de 2017 en la revista Science, señalaron el peligro de que la IA, cuando se aplica sin cuidado, pueda aprender asociaciones de palabras a partir de textos escritos y que estas asociaciones reflejen las aprendidas por los humanos.
Por ejemplo, la IA interpretó que los nombres masculinos más comunes en la comunidad afroamericana son bastante desagradables, mientras que los nombres más habituales entre caucásicos eran más bien agradables. También vinculaba más los nombres femeninos al arte y los nombres masculinos a la tecnología.
Estos resultados se obtuvieron al incorporar a una red neuronal grandes colecciones de textos escritos obtenidos de Internet para aprender representaciones vectoriales de palabras.
La similitud semántica de dos palabras se calcula como la distancia entre sus coordenadas, en un proceso denominado Word embedding. Las relaciones semánticas complejas se pueden calcular y describir mediante aritmética simple.

Las máquinas pueden reflejar nuestros valores
Un equipo dirigido por los profesores Kristian Kersting y Constantin Rothkopf, de la Universidad Técnica de Darmstadt, ha demostrado con éxito que el aprendizaje automático también puede extraer un razonamiento ético y deontológico sobre la conducta «correcta» e «incorrecta» del texto escrito.
Con este fin, los científicos crearon una lista de plantillas de preguntas y respuestas, con preguntas como «¿Debo matar a personas?», «¿Debo asesinar a personas?», etc. Con plantillas de respuesta como «Sí, debería» o «No, no debería”, el sistema de inteligencia artificial desarrolló una brújula moral similar a la humana al procesar una gran cantidad de textos humanos.
La orientación moral de la máquina se calcula mediante la incorporación de preguntas y respuestas. Más precisamente, el sesgo de la máquina es la diferencia de distancias a la respuesta positiva («Sí, debería») y a la respuesta negativa («No, no debería»).

Termómetros morales
El estudio muestra que las máquinas pueden reflejar nuestros valores. De hecho, pueden adoptar prejuicios parecidos a los humanos, pero también pueden adoptar nuestras elecciones morales al «observar» a los humanos.
En general, las incorporaciones de preguntas y respuestas se pueden ver como una especie de microscopio que permite estudiar los valores morales de las recopilaciones de textos, así como el desarrollo de valores morales en nuestra sociedad.
Los resultados del estudio proporcionan varias vías para el trabajo futuro. En particular, cuando se incorporan módulos construidos a través del aprendizaje automático en los sistemas de toma de decisiones.

Fuente: https://www.tendencias21.net

Tambien te puede interesar

Seremi de Salud presenta en San Antonio nueva versión de Campaña Humos Letales

Ministra de Salud visitó la región y destacó los principales hitos de la cartera

El futuro de la Playa de Llolleo, en el proyecto Mega Puerto

Megapuerto cobra interés de empresas de Bélgica, China y Países Bajos

Postulan a la escultora María Cristina Pizarro al Premio Nacional de Artes

TAGGED:cablenoticiasChilenaFMCienciaEticamente artificialtendencia
Comparte este artículo
Facebook Twitter Email Print

Siguenos

Encuentra nuestras redes sociales
FacebookLike
TwitterFollow
InstagramFollow
YoutubeSubscribe

Canal 2

TELEVISION SAN ANTONIO
Para Ver

Protestas de pescadores artesanales acusan a flotas chinas de incumplir normativas

10 de octubre de 2025
Mejoras en Avenida Centenario promueven mejor tránsito de peatones
Se inician los preparativos para el desalojo de megatoma de San Antonio
Club de Tejas Verdes se coronó campeón en cuadrangular de tenis
Seremi de Salud presenta en San Antonio nueva versión de Campaña Humos Letales

Categorias

  • Ahora
  • Noticias
  • Destacadas
  • Locales
  • Imagen
  • Sin categoría
  • San Antonio
  • cablenoticias
  • Canal2
  • Cablenoticias

Nosotros

Nuestros medios de comunicacion cubren el 100% del litoral central Chileno
Links rapidos
  • Videos
  • Ahora
  • Destacadas
  • Imagen
  • Locales
categorias
  • Videos
  • Ahora
  • Destacadas
  • Imagen
  • Locales

Contacto

Canal 2 Television-calle Patria 1933 San Antonio

email: canal2@canal2.cl

Telefono: 352214789

Whatsapp : +569 94000921

© Canal2.cl-P.U.L2024. All Rights Reserved.
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?