¿Por qué la Inteligencia Artificial no debe ser una caja negra?

Por Arturo Salazar y Fabián Salazar

En el mundo empresarial actual, la inteligencia artificial (IA) es un tema que despierta tanto entusiasmo como preocupación. Defensores y detractores coinciden en que esta tecnología transformará el mundo. Figuras prominentes como Sam Altman de OpenAI vislumbran un futuro en el que la humanidad prosperará, mientras que los críticos auguran una disrupción social y un poder corporativo excesivo. Cuál de estas predicciones se haga realidad dependerá, en parte, de las bases que establezcamos hoy. Sin embargo, las recientes disputas en OpenAI —incluyendo la salida de su cofundador y científico jefe— sugieren que los actores clave de la IA se han vuelto demasiado opacos para que la sociedad pueda establecer el rumbo correcto.

Un índice desarrollado en la Universidad de Stanford revela que la transparencia en líderes de IA como Google, Amazon, Meta y OpenAI no alcanza el nivel necesario. Aunque la IA surgió a través de la colaboración entre investigadores y expertos en diversas plataformas, las empresas han optado por la discreción desde que ChatGPT de OpenAI inauguró un boom comercial de la IA. Dada la magnitud de los peligros potenciales de la IA, estas compañías necesitan volver a su pasado más abierto.

La importancia de la transparencia en la IA

La transparencia en la IA se divide en dos áreas principales: los insumos y los modelos. Los grandes modelos de lenguaje, base de la IA generativa como ChatGPT de OpenAI o Gemini de Google, se entrenan explorando la web para analizar y aprender de "conjuntos de datos" que van desde foros de Reddit hasta pinturas de Picasso. En los primeros días de la IA, los investigadores solían divulgar sus datos de entrenamiento en revistas científicas, permitiendo a otros diagnosticar fallas al evaluar la calidad de los insumos.

Hoy en día, los actores clave tienden a ocultar los detalles de sus datos para protegerse contra demandas por infracción de derechos de autor y obtener una ventaja competitiva. Esto dificulta la evaluación de la veracidad de las respuestas generadas por la IA. Además, deja a escritores, actores y otros creativos sin información sobre si su privacidad o propiedad intelectual ha sido violada.

La opacidad de los modelos de IA

Los modelos en sí mismos carecen de transparencia. Cómo un modelo interpreta sus insumos y genera lenguaje depende de su diseño. Las empresas de IA tienden a ver la arquitectura de su modelo como su "salsa secreta": la genialidad de GPT-4 de OpenAI o Llama de Meta pivota en la calidad de su cálculo. Los investigadores de IA solían publicar artículos sobre sus diseños, pero la carrera por la cuota de mercado ha puesto fin a tales divulgaciones. Sin la comprensión de cómo funciona un modelo, es difícil evaluar los resultados, límites y sesgos de una IA.

Toda esta opacidad dificulta que el público y los reguladores evalúen la seguridad de la IA y protejan contra posibles daños. Esto es aún más preocupante considerando que Jan Leike, quien ayudó a liderar los esfuerzos de OpenAI para guiar herramientas de IA superpoderosas, afirmó después de dejar la compañía este mes que sus líderes habían priorizado los "productos llamativos" sobre la seguridad. La compañía ha insistido en que puede regular su propio producto, pero su nuevo comité de seguridad reportará a los mismos líderes.

Un llamado a la colaboración y la transparencia

Los gobiernos han comenzado a sentar las bases para la regulación de la IA a través de conferencias como la realizada el año pasado en Bletchley Park, la orden ejecutiva del presidente Joe Biden sobre IA y la Ley de IA de la UE. Aunque bienvenidas, estas medidas se centran en barreras de seguridad y "pruebas de seguridad" en lugar de en la transparencia completa. La realidad es que la mayoría de los expertos en IA trabajan para las propias empresas y las tecnologías están desarrollándose demasiado rápido para que las pruebas de seguridad periódicas sean suficientes. Los reguladores deberían exigir transparencia en los modelos e insumos, y los expertos en estas empresas necesitan colaborar con los reguladores.

La IA tiene el potencial de transformar el mundo para mejor, quizás con una potencia y velocidad aún mayores que la revolución de Internet. Las empresas pueden argumentar que los requisitos de transparencia ralentizarán la innovación y opacarán su ventaja competitiva, pero la historia reciente de la IA sugiere lo contrario. Estas tecnologías han avanzado gracias a la colaboración y la investigación compartida. Volver a esas normas no solo serviría para aumentar la confianza del público, sino que permitiría una innovación más rápida y segura.

Como fundadores de STRTGY, nos comprometemos a liderar con el ejemplo en la promoción de la transparencia en la IA. Nuestra empresa cree firmemente que la colaboración abierta y la divulgación completa de datos y modelos no solo son beneficiosas para la sociedad, sino también para el progreso sostenido y ético de la inteligencia artificial. Invitamos a la comunidad empresarial a unirse a nosotros en este esfuerzo por un futuro más transparente y seguro en el campo de la IA.

Arturo Salazar, CEO de STRTGY

Fabián Salazar, CTO de STRTGY

Anterior
Anterior

El éxito de la IA depende de abordar la "deuda del proceso"

Siguiente
Siguiente

No necesitamos reglas de IA: necesitamos una constitución