META DISUELVE SU EQUIPO DE INTELIGENCIA ARTIFICIAL RESPONSABLE

Meta ha disuelto su equipo de Inteligencia Artificial Responsable (RAI) mientras destina más recursos a la inteligencia artificial generativa. El reconocido medio The Information informó hoy sobre esto, citando una publicación interna que había visto.

Según el informe, la mayoría de los miembros del RAI se trasladarán al equipo de productos de IA generativa de la compañía, mientras que otros trabajarán en la infraestructura de IA de Meta. La empresa dice regularmente que quiere desarrollar IA de manera responsable y tiene incluso una página dedicada a esa promesa, donde enumera sus «pilares de IA responsable», incluyendo responsabilidad, transparencia, seguridad, privacidad y más.

El informe de The Information cita a Jon Carvill, representante de Meta, diciendo que la compañía «continuará priorizando e invirtiendo en el desarrollo de IA seguro y responsable». Añadió que aunque la empresa está dividiendo el equipo, esos miembros «continuarán apoyando esfuerzos relevantes en todo Meta sobre el desarrollo y uso de IA responsable».

Meta no respondió a una solicitud de comentarios antes del cierre de esta edición.

El equipo ya experimentó una reestructuración a principios de este año, que Business Insider escribió incluyó despidos que dejaron al RAI como «una sombra de equipo». Ese informe continuó diciendo que el equipo RAI, que existía desde 2019, tenía poca autonomía y que sus iniciativas tenían que pasar por largas negociaciones con los interesados antes de que pudieran implementarse. El RAI fue creado para identificar problemas con sus enfoques de entrenamiento de IA, incluyendo si los modelos de la compañía están entrenados con información suficientemente diversa, con el objetivo de prevenir cosas como problemas de moderación en sus plataformas. Los sistemas automatizados en las plataformas sociales de Meta han llevado a problemas como un problema de traducción en Facebook que causó un arresto falso, la generación de stickers de IA en WhatsApp que resulta en imágenes sesgadas cuando se dan ciertas indicaciones, y los algoritmos de Instagram ayudando a las personas a encontrar materiales de abuso sexual infantil.

Movimientos como el de Meta y uno similar de Microsoft a principios de este año se producen mientras los gobiernos del mundo compiten para crear barreras regulatorias para el desarrollo de la inteligencia artificial. El gobierno de EE. UU. firmó acuerdos con empresas de IA y luego el presidente Biden dirigió a las agencias gubernamentales a elaborar reglas de seguridad de IA. Mientras tanto, la Unión Europea ha publicado sus principios de IA y aún lucha por aprobar su Ley de IA.

Fuente: Wes Davis - TheVerge.com

Entradas Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *