29 de mayo 2024
Dólar
Compra 37,40 Venta 39,80
25 de mayo 2023 - 5:01hs

Por Sundar Pichai, director ejecutivo de Google y Alphabet

Este año, la inteligencia artificial (IA) generativa ha cautivado la imaginación del mundo. Millones de personas ya la están utilizando para potenciar su creatividad y mejorar su productividad. Mientras tanto, cada vez más empresas "startup" y organizaciones están lanzando al mercado productos y tecnologías basados en IA con más rapidez que nunca.

La IA es la tecnología más profunda en la que está trabajando la humanidad hoy en día; afectará a todos los sectores y aspectos de la vida. Teniendo en cuenta lo mucho que está en riesgo, cuanta más gente trabaje para potenciar la ciencia de la IA, más se ampliarán las oportunidades de las comunidades de todo el mundo.

Aunque algunos han intentado reducir este momento a una simple carrera competitiva de IA, para nosotros es mucho más que eso. En Google llevamos más de una década incorporando la IA a nuestros productos y servicios y poniéndolos a disposición de nuestros usuarios. Esto es muy importante para nosotros. Sin embargo, más importante aún es la carrera por desarrollar la IA de forma responsable y asegurarnos de que, como sociedad, lo hagamos bien.

Lo estamos enfocando de tres maneras. En primer lugar, persiguiendo con audacia innovaciones que hagan que la IA sea más útil para todos. Seguimos utilizando la IA para mejorar significativamente nuestros productos, desde Google Search y Gmail hasta Android y Maps. Gracias a estos avances, los conductores de todo el mundo ahora pueden encontrar rutas con menor gasto de combustible; decenas de miles de refugiados ucranianos reciben ayuda para comunicarse en sus nuevos hogares; las herramientas de previsión de inundaciones son capaces de predecirlas con mayor antelación. El trabajo de Google DeepMind en AlphaFold, en colaboración con el Laboratorio Europeo de Biología Molecular, dio pie a una comprensión pionera de más de 200 millones de proteínas catalogadas conocidas por la ciencia, lo que abre nuevas posibilidades en la atención sanitaria.

También nos estamos enfocando en permitir que otros fuera de nuestra compañía innoven con la IA, ya sea a través de nuestras ofertas y las API en la nube, o con nuevas iniciativas como el programa Google for Startups Growth, que apoya a los emprendedores que utilizan la IA en beneficio de la salud y el bienestar de las personas. Estamos lanzando un fondo de innovación social sobre IA para ayudar a las empresas sociales a resolver algunos de los retos más apremiantes de la sociedad.

En segundo lugar, nos estamos asegurando de desarrollar e implantar la tecnología de forma responsable, lo que refleja nuestro profundo compromiso de ganarnos la confianza de nuestros usuarios. Por eso publicamos los principios de IA en 2018, arraigados en la convicción de que la IA debe desarrollarse para beneficiar a la sociedad, evitando al mismo tiempo aplicaciones perjudiciales.

Tenemos muchos ejemplos de la puesta en práctica de estos principios, como la construcción de barreras de seguridad para limitar el uso indebido de nuestro Traductor Universal. Este servicio experimental de doblaje de vídeo con IA ayuda a los expertos a traducir la voz de un orador y adaptar sus movimientos labiales. Tiene un enorme potencial para aumentar la comprensión del aprendizaje, pero somos conscientes de los riesgos que podría suponer en manos de actores malintencionados, por lo que sólo los socios autorizados pueden acceder a él. A medida que la IA evoluciona, también lo hace nuestro enfoque: este mes anunciamos que ofreceremos formas de identificar cuándo la hemos utilizado para generar contenidos en nuestros servicios.

Finalmente, aprovechar el potencial de la IA no es algo que una compañía pueda hacer por sí sola. En 2020, compartí mi opinión de que la IA necesita ser regulada de una forma que pueda equilibrar la innovación y los daños potenciales. Ahora que la tecnología se encuentra en un punto de inflexión, sigo creyendo que la IA es demasiado importante como para no regularla, y demasiado importante como para no regularla bien.

El desarrollo de marcos políticos que anticipen los daños potenciales y liberen los beneficios requerirá profundos debates entre gobiernos, expertos de la industria, editoriales, círculos académicos y la sociedad civil. Quizás los legisladores no necesiten empezar de cero: las normativas existentes brindan marcos útiles para gestionar los riesgos potenciales de las nuevas tecnologías. Pero será importante seguir invirtiendo en investigación y desarrollo de una IA responsable, así como garantizar que la IA se aplique de forma segura, especialmente allí donde las regulaciones aún están evolucionando.

El aumento de la cooperación internacional será clave. EEUU y Europa son socios y aliados estratégicos. Es importante que ambos trabajen juntos para crear marcos robustos y favorables a la innovación para la tecnología emergente, basados en valores y objetivos compartidos. Seguiremos trabajando con expertos, científicos sociales y emprendedores que están creando normas para el desarrollo responsable de la IA a ambos lados del Atlántico.

La IA representa una oportunidad única para que el mundo alcance sus objetivos climáticos, construya un crecimiento sostenible, mantenga la competitividad global y mucho más. Pero aún estamos en los albores y queda mucho trabajo por delante. Esperamos colaborar con otros, y desarrollar juntos la IA de forma segura y responsable para que todos puedan beneficiarse.

Temas:

Google Member

Seguí leyendo

Te Puede Interesar