Google aboga por la regulación de la intelegencia artificial

Rate this post

El consejero delegado (CEO) de Google, Sundar Pichai, reconoció este lunes que "la inteligencia artificial (IA) debe ser regulada", un trabajo que, en su opinión, "va más allá de los esfuerzos individuales de las compañías" que se dedican a su desarrollo y en el que "los gobiernos tienen un papel fundamental".

Por este motivo, el dirigente de Google se reunirá esta tarde en Bruselas con la comisaria para una Europa adaptada a la era digital, Margrethe Vestager, a quien trasladará la importancia de una regulación para la IA "basada en la normativa existente" y emplazada en un "marco internacional", además de la conveniencia de que "el sector privado y los gobiernos vayan de la mano en este tema".

Pichai confesó en una conferencia pronunciada hoy en Bruselas que la IA es "una de las tecnologías más emocionantes" en las que ha trabajado porque, a su juicio, las herramientas que se deriven de ella "pueden aumentar el conocimiento, el éxito, la salud y la felicidad de las personas".

No obstante, avisó de que "la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas".

"La invención del motor de combustión interna hizo posible que la gente pudiera viajar, pero también aumentó los accidentes; e Internet hizo posible la conexión entre personas y el acceso a la información, pero propagó la desinformación", explicó Pichai, para quien estas lecciones "nos enseñan la importancia de tener la vista clara sobre todo lo que puede salir mal" en el desarrollo de la IA.

Algunos de los avances que la inteligencia artificial puede ayudar a alcanzar, según Pichai, son la detección precoz de cánceres como el de mama, la realización de pronósticos meteorológicos inmediatos y más precisos, y la disminución de los accidentes de tráfico, además de la generación de grandes oportunidades económicas.

"Si bien la IA promete enormes beneficios para Europa y el mundo, existen preocupaciones sobre sus posibles consecuencias negativas", aseveró Pichai, quien señaló como su principal área de preocupación las llamadas "falsificaciones profundas", clips de vídeo y audio que han sido manipulados utilizando profundos modelos generativos de IA.

Pichai subrayó que las compañías como Google "no pueden construir una nueva tecnología prometedora sin asumir la responsabilidad de cómo se usa".

"Para Google es importante que el poder de la IA sea aprovechado para bien y esté disponible para todos", manifestó.

En esta línea, Google publicó en 2018 sus propias pautas respecto a la IA, que pretenden "ayudar a guiar la ética de su desarrollo y uso".

Esta guía establece procedimientos para realizar pruebas de seguridad y diseñar con la privacidad como principal preocupación, y señaló que Google no diseñará ni implementará la IA en áreas como los soportes de vigilancia masiva.

Durante su discurso, Pichai ofreció la "experiencia, herramientas y habilidades" de Google a las instituciones que, como la Comisión Europea (CE), tienen debates abiertos sobre la regulación de la IA, y les recordó que, en esta materia, "tenemos una tremenda oportunidad ante nosotros".

Descargo de responsabilidad

Toda la información contenida en este sitio web se publica solo con fines de información general y no como un consejo de inversión. Cualquier acción que el lector realice sobre la información que se encuentra en nuestro sitio web es estrictamente bajo su propio riesgo. Nuestra prioridad es brindar información de alta calidad. Nos tomamos nuestro tiempo para identificar, investigar y crear contenido educativo que sea útil para nuestros lectores. Para mantener este estándar y continuar creando contenido de buena calidad. Pero nuestros lectores pueden basarse en su propia investigación.

Índice

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada.

    Subir