Hila Lifshitz-Assaf (Warwick Business School): «La privacidad no está garantizada en la IA generativa. No confío en las promesas de OpenAI» [3/3]

Hila Lifshitz-Assaf es una destacada académica en el campo de la gestión de la innovación. Actualmente, es profesora de Gestión en Warwick Business School y afiliada al Laboratorio de Ciencia de la Innovación de Harvard. Su investigación se centra en comprender los fundamentos de la innovación científica y tecnológica en la era digital, explorando cómo la capacidad de innovar se transforma y las implicaciones que esto tiene para las organizaciones de I+D y los profesionales.

Durante su presentación, mencionó que la IA generativa puede reducir la diversidad cognitiva. ¿Podría profundizar en este concepto?

Existen dos aspectos por los cuales el uso de IA generativa puede disminuir la diversidad cognitiva: uno relacionado con la tecnología y otro con los usuarios. Desde la perspectiva tecnológica, la IA se basa en bases de datos que recopilan información disponible en la web. Aunque esperábamos que internet fuera un espacio sumamente diverso, en realidad no todas las opiniones y perspectivas están representadas.

Por lo tanto, la IA refleja un subconjunto de la realidad, sesgado hacia lo que es más común en línea. Por ejemplo, en el diseño de un nuevo calzado, las ideas generadas por la IA suelen centrarse en tendencias populares como la sostenibilidad, mientras que los humanos pueden aportar ideas más originales basadas en necesidades específicas o experiencias personales.

Por otro lado, los usuarios a menudo emplean la IA de manera uniforme, sin explorar su potencial completo. Muchos simplemente copian y pegan, sin utilizar estrategias más complejas, como asignar diferentes personalidades a la IA para obtener diversas perspectivas. Este uso limitado contribuye a una menor diversidad cognitiva.

En cuanto a la privacidad de los datos al utilizar herramientas como ChatGPT, ¿cree que está garantizada?

La privacidad no está garantizada. Personalmente, no confío plenamente en las promesas de privacidad de OpenAI. Es un riesgo significativo. Las empresas no deberían utilizar la versión gratuita y abierta de GPT para fines corporativos sin adaptarla y asegurarla adecuadamente. A nivel individual, es importante ser consciente de que al usar estas herramientas, se están compartiendo datos personales.

¿Cree que los gobiernos deberían bloquear o regular el uso de la inteligencia artificial?

No creo que sea viable bloquear la IA. Es esencial establecer regulaciones, aunque históricamente estas suelen ser lentas y rezagadas. La Ley de IA de la UE es un paso importante, ya que clasifica las áreas de riesgo y establece dónde se puede o no utilizar la IA. Los gobiernos deberían experimentar con la IA en áreas de bajo riesgo y abstenerse en aquellas más críticas, siempre de manera segura y controlada.

¿Considera que los gobiernos están rezagados en comparación con el sector privado en el uso de la IA?

Aunque los gobiernos utilizan la IA, sus políticas varían. En general, los empleados, independientemente del sector, están adoptando estas herramientas debido a su facilidad de uso y eficiencia. Es preferible establecer políticas claras en lugar de ignorar su uso, ya que la falta de directrices puede conducir a errores y problemas futuros.

En relación con la responsabilidad social corporativa y la sostenibilidad, ¿cómo se puede equilibrar el impacto ambiental del hardware necesario para la IA?

El hardware asociado a la IA, como los chips de nVidia, tiene un impacto ambiental significativo. Lamentablemente, no siempre se nos proporciona información completa sobre este daño. Sin embargo, la IA también puede ser una herramienta valiosa para abordar problemas de sostenibilidad, al permitirnos replantear soluciones y aprender de experiencias globales. Por ejemplo, estoy colaborando con H&M para utilizar IA generativa en la resolución de desafíos de sostenibilidad.

¿Cree que Europa está preparada para el uso de la IA?

Ninguna región está completamente preparada, pero Europa está intentando abordar la IA de manera reflexiva. En cuanto a España, necesitaría datos específicos para evaluar su nivel de adopción y preparación en comparación con otros países. Como investigadora, baso mis conclusiones en datos concretos.

Por último, ¿cómo describiría su postura actual hacia la IA?

Inicialmente, tenía una inclinación favorable hacia la IA y la tecnología. Sin embargo, mi experiencia en el campo me ha mostrado tanto los beneficios como los desafíos. No estoy ni a favor ni en contra de la IA; la encuentro fascinante, pero es crucial ser conscientes de sus múltiples facetas y utilizarla de manera responsable, sin idealizarla.

Por Susana Gilabert

«Como sociedad nos enfrentamos a muchos problemas, y la tecnología no nos salvará. Tenemos que levantarnos y hacer algo con lo que está pasando. La IA es un nuevo poder que podemos aprovechar, pero la cuestión es cómo y cuándo» (Hila Lifshitz-Assaf, Warwick Business School)

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *