Por Natalia Drozdiak y Bloomberg
Sundar Pichai, CEO de Alphabet Inc., compañía matriz de Google, instó a Estados Unidos y a la Unión Europea a coordinar los enfoques regulatorios sobre la inteligencia artificial (I.A.), calificando su alineación como “crítica”.
En un raro discurso público en Bruselas, durante un evento organizado por el grupo Bruegel –expertos económicos europeos– , Sundar Pichai, quien también es CEO de Google, dijo “no hay duda en mi mente que la inteligencia artificial necesita ser regulada”, pero “no tenemos que empezar de cero” con reglas completamente nuevas en algunos casos.
Los comentarios se producen semanas antes de que la UE se disponga a revelar sus planes para legislar la tecnología. Estos podrían incluir nuevos requisitos legalmente vinculantes para los desarrolladores de IA en “sectores de alto riesgo”, como la salud y el transporte, según un primer borrador que obtuvo Bloomberg.
Las nuevas normas podrían exigir a las empresas que sean transparentes en cuanto a la forma en que construyen sus sistemas.
Durante su estancia en Bruselas, Pichai también se reunirá con Margrethe Vestager, la jefa de competencia responsable de las multas antimonopolio impuestas a Google por más de 8,000 millones de euros (US$8,900 millones).
Además de la competencia, ahora también supervisa las políticas digitales del bloque, incluyendo los planes para legislar la IA.
Alphabet ha luchado durante años contra la intensa presión regulatoria en Europa. El gigante de la búsqueda está desafiando las multimillonarias multas antimonopolio de la UE y ha tratado de luchar contra los derechos de autor y otras formas de regulación de plataformas que han surgido de Bruselas en los últimos años.
El directivo de Google acogió con cautela los planes de normas que adoptan “un enfoque proporcionado, equilibrando los daños potenciales con las oportunidades sociales”.
La tecnología de reconocimiento facial y las llamadas falsificaciones profundas —o clips de audio y vídeo manipulados– son dos áreas en las que la IA podría ser utilizada de manera destructiva, y las empresas tienen la responsabilidad de “hacer esto bien”, puntualizó Pichai.
También lee: Google ayudará a detectar videos ‘deepfake’ con IA
También mencionó que Google ha publicado conjuntos de datos abiertos para ayudar a los investigadores a construir mejores herramientas para detectar las falsificaciones y que ha optado por no ofrecer interfaces de programación de aplicaciones de reconocimiento facial de propósito general.
Pichai destacó los recientes desarrollos de la compañía en IA, incluyendo un algoritmo de Google Health que puede detectar el cáncer de mama con mayor precisión que los médicos y otras investigaciones para predecir con exactitud el clima, así como los avances de su unidad de vehículos autónomos, Waymo.
El CEO de Google dijo que las reglas existentes, como la legislación de privacidad europea GDPR y la regulación de dispositivos médicos como los monitores cardiacos asistidos por IA, servirían como bases sólidas para gobernar la inteligencia artificial en algunas áreas, pero que para los vehículos autónomos, los gobiernos tendrían que establecer regulaciones.
Sin embargo, Google también ha sido objeto de intensas críticas por la forma en que maneja la privacidad de los usuarios con algunos de sus proyectos de IA.
De hecho, Google se enfrenta a una investigación federal de EE.UU. después de que The Wall Street Journal informara en noviembre sobre cómo recopila los datos de atención sanitaria de millones de estadounidenses para diseñar nuevos programas de IA.
También se enfrenta a un escrutinio sobre los métodos que utiliza para entrenar los algoritmos que ejecutan Google Assistant.