Noticias

La preocupante advertencia que hacen empleados de empresas de IA – Expreso.ec


Uno de los riesgos más significativos es que los sistemas de IA se vuelvan autónomos llegando a amenazar la existencia humana

Un grupo de empleados y exempleados de importantes compañías de inteligencia artificial (IA) hicieron público un pronunciamiento en el que advierten de los graves riesgos que este tipo de tecnología podría ocasionar en la humanidad si es que las empresas que las desarrollan no transparentan la información y se vuelven más responsables.


Apagar el celular una vez a la semana: ¿Por qué lo recomienda la NSA?

Leer más

A través de una carta presentada a inicios de junio, un total de 13 trabajadores actuales y antiguos de OpenAI -conocida por desarrollar ChatGPT-, Anthropic y DeepMind de Google, afirman que el desarrollo de IA no controlados pueden incrementar las desigualdades que ya existen en el mundo, así como también aumentar la manipulación y la desinformación.

Una de las advertencias más extremas que incluye el documento y que más preocupación trae es que los creadores pierdan el control sobre los sistemas de IA, provocando que estos se vuelvan autónomos, llegando a amenazar la existencia humana.

“Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil”, dice el texto, según una publicación de El Tiempo.

¿Se pueden mitigar los riesgos de la IA para la humanidad?

Los firmantes de la carta, algunos de manera anónima, tienen la esperanza de que los riesgos mencionados puedan reducirse con la orientación adecuada por parte de la comunidad científica, los legisladores y la sociedad en su conjunto. Sin embargo, hacen hincapié en que los incentivos financieros de las empresas para evitar una supervisión efectiva son considerables, y dudan de que las estructuras de gobernanza corporativa adaptadas sean capaces de generar un cambio significativo.

Telegram

Filtran datos de 361 millones de usuarios de Telegram: ¿Cómo saber si está usted?

Leer más

Un dato que también llama la atención es que la advertencia llega en un momento en que un considerable número de empleados de OpenAI han decidido salir de la empresa. Entre los que han renunciado están el cofundador de OpenAI, Ilya Sutskever, y el investigador principal Jan Leike. Para muchos críticos, esta es una recriminación a los líderes de la compañía.

El informe también resalta los obstáculos que confrontan los trabajadores al tratar de señalar prácticas dudosas debido a los contratos de confidencialidad rigurosos.

Por esta razón, los especialistas instan a las empresas a comprometerse a tolerar críticas relacionadas con los riesgos, y sugieren establecer procedimientos anónimos que faciliten a los empleados y antiguos empleados expresar sus inquietudes directamente ante el consejo de administración de la empresa, reguladores y entidades independientes especializadas.

Para más contenido de calidad SUSCRÍBETE A EXPRESO



Source link

Marc Valldeperez

Soy el administrador de marcahora.xyz y también un redactor deportivo. Apasionado por el deporte y su historia. Fanático de todas las disciplinas, especialmente el fútbol, el boxeo y las MMA. Encargado de escribir previas de muchos deportes, como boxeo, fútbol, NBA, deportes de motor y otros.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button