¿Usando IA generativa? Considere estos 7 consejos de un experto legal

Publicado: 2023-09-22

Como asesor general de G2, mi trabajo es ayudar a construir y proteger la empresa, por lo que probablemente no sea una sorpresa que la IA generativa sea una prioridad para mí (¡y para los abogados de todo el mundo!).

Si bien la IA presenta una oportunidad para las organizaciones, también plantea riesgos. Y estos riesgos generan preocupaciones para todos los líderes empresariales, no sólo para los departamentos legales.

Con tanta información disponible, reconozco que estas aguas pueden ser difíciles de navegar. Entonces, para ayudar a llegar al meollo de estas preocupaciones y resumirlas en una guía útil para todos los líderes empresariales, recientemente me senté con algunas de las mentes más importantes en el espacio de la IA para una mesa redonda en San Francisco.

Allí, discutimos el panorama cambiante de la IA generativa, las leyes que la afectan y lo que todo esto significa para el funcionamiento de nuestras empresas.

Llegamos al acuerdo de que sí, las herramientas de IA generativa están revolucionando la forma en que vivimos y trabajamos. Sin embargo, también coincidimos en que hay varios factores legales que las empresas deben considerar al embarcarse en sus viajes de IA generativa.

Con base en esa discusión, aquí hay siete cosas a considerar al integrar la IA en su empresa.

1. Comprender la configuración del terreno

Su primera tarea es identificar si está trabajando con una empresa de inteligencia artificial o una empresa que utiliza IA. Una empresa de IA crea, desarrolla y vende tecnologías de IA, siendo la IA su principal oferta comercial. Piense en OpenAI o DeepMind.

Por otro lado, una empresa que utiliza IA la integra en sus operaciones o productos, pero no crea la tecnología de IA en sí. El sistema de recomendaciones de Netflix es un buen ejemplo de ello. Conocer la diferencia es fundamental, ya que determina la complejidad del terreno legal que necesita navegar y descifra qué leyes se aplican a su caso.

G2 presenta el software de IA clave en este campo en desarrollo. Cuando tenga una visión general de las posibles herramientas, podrá tomar mejores decisiones sobre cuál es la adecuada para su negocio.

Esté atento a los últimos avances en la ley, ya que las regulaciones de IA generativa están en el horizonte. La legislación se está desarrollando rápidamente en los EE. UU., el Reino Unido y Europa. Asimismo, se están resolviendo activamente litigios relacionados con la IA. Manténgase en contacto con sus abogados para conocer los últimos acontecimientos.

2. Elija el socio adecuado teniendo en cuenta los términos de uso

Se puede saber mucho sobre una empresa por sus términos de uso. ¿Qué valora una empresa? ¿Cómo manejan la relación con sus usuarios o clientes? Las condiciones de uso pueden servir como prueba de fuego.

OpenAI, por ejemplo, establece explícitamente en sus políticas de uso que su tecnología no debe usarse para aplicaciones dañinas, engañosas o poco éticas. Bing Chat exige que los usuarios cumplan con las leyes que prohíben contenido o comportamiento ofensivo. Mientras tanto, Google Bard se centra en la seguridad y la privacidad de los datos en sus términos, destacando el compromiso de Google de proteger los datos de los usuarios. Evaluar estos términos es esencial para garantizar que su negocio se alinee con los principios y requisitos legales del socio de IA.

Comparamos los términos de uso y las políticas de privacidad de varios actores clave de la IA generativa para ayudarnos a determinar qué herramientas de IA funcionarían mejor para el perfil de riesgo de nuestra empresa y le recomendamos que haga lo mismo.

Entre su empresa y la empresa de IA, ¿a quién pertenece la entrada? ¿A quién pertenece la producción? ¿Se utilizarán los datos de su empresa para entrenar el modelo de IA? ¿Cómo procesa la herramienta de IA y a quién envía información de identificación personal? ¿Durante cuánto tiempo la herramienta de IA retendrá la entrada o la salida?

Las respuestas a estas preguntas informan hasta qué punto su empresa querrá interactuar con la herramienta de IA.

3. Navega por el laberinto de los derechos de propiedad

Al utilizar herramientas de IA generativa, es fundamental comprender el alcance de su derecho de propiedad sobre los datos que ingresa en la IA y los datos que se derivan de la IA.

Desde una perspectiva contractual, las respuestas dependen del acuerdo que tenga con la empresa de IA. Asegúrese siempre de que los términos de uso o los acuerdos de servicio detallen claramente los derechos de propiedad.

Por ejemplo, OpenAI adopta la posición de que entre el usuario y OpenAI, el usuario posee todas las entradas y salidas. Google Bard, Bing Chat de Microsoft, Jasper Chat y Claude de Anthropic otorgan de manera similar la propiedad total de los datos de entrada y salida al usuario, pero simultáneamente se reservan una licencia amplia para usar contenido generado por IA de múltiples maneras.

Claude de Anthropic otorga la propiedad de los datos de entrada al usuario, pero sólo "autoriza a los usuarios a utilizar los datos de salida". Anthropic también se otorga una licencia para contenido de IA, pero sólo "para utilizar todos los comentarios, ideas o mejoras sugeridas que proporcionen los usuarios". Los términos contractuales que usted celebra son muy variables entre las empresas de IA.

4. Lograr el equilibrio adecuado entre derechos de autor y propiedad intelectual

La capacidad de la IA para generar resultados únicos genera dudas sobre quién tiene protecciones de propiedad intelectual (PI) sobre esos resultados. ¿Puede la IA crear obras protegidas por derechos de autor? Si es así, ¿quién es el titular de los derechos de autor?

La ley no es del todo clara en estas cuestiones, por lo que es crucial tener una estrategia de propiedad intelectual proactiva cuando se trata de IA. Considere si es importante para su empresa hacer cumplir la propiedad de propiedad intelectual de la salida de IA.

Actualmente, las jurisdicciones están divididas en cuanto a sus puntos de vista sobre la propiedad de los derechos de autor de las obras generadas por IA. Por un lado, la Oficina de Derechos de Autor de EE. UU. adopta la posición de que las obras generadas por IA, sin ninguna participación humana, no pueden tener derechos de autor porque no son escritas por un ser humano.

Nota: La Oficina de Derechos de Autor de EE. UU. actualmente acepta comentarios públicos sobre cómo las leyes de derechos de autor deben tener en cuenta la propiedad con respecto al contenido generado por IA.

Fuente: Registro Federal

Para las obras generadas por IA creadas en parte por autoría humana, la Oficina de Derechos de Autor de EE. UU. adopta la posición de que los derechos de autor solo protegerán los aspectos de autoría humana, que son "independientes" y "no afectan" el estado de los derechos de autor de la IA. material generado en sí.

Por otro lado, la ley del Reino Unido establece que la producción de IA puede ser propiedad de un ser humano o una empresa, y el sistema de IA nunca puede ser el autor o propietario de la propiedad intelectual. Las aclaraciones de muchas jurisdicciones globales están pendientes y es algo que los abogados de negocios deben observar, ya que se anticipa un aumento significativo de los litigios sobre la propiedad de la producción en los próximos años.

5. Sepa dónde se almacenan los datos, cómo se utilizan y las leyes de privacidad de datos en juego.

La privacidad es otra área vital a considerar. Necesita saber dónde se almacenan sus datos, si están protegidos adecuadamente y si los datos de su empresa se utilizan para alimentar el modelo de IA generativa.

Algunas empresas de IA anonimizan los datos y no los utilizan para mejorar sus modelos, mientras que otras sí lo hacen. Es esencial establecer estos puntos desde el principio para evitar posibles violaciones de la privacidad y garantizar el cumplimiento de las leyes de protección de datos.

En términos generales, las leyes de privacidad actuales generalmente exigen que las empresas hagan algunas cosas clave:

  • Proporcionar avisos a los consumidores con respecto a cómo se procesan los datos personales.
  • En ocasiones, obtener el consentimiento de las personas antes de recopilar los datos personales.
  • Permitir que las personas accedan, eliminen o corrijan información relacionada con su información personal.

Por la forma en que se construye la IA, desde una perspectiva técnica, es extremadamente difícil separar la información personal, lo que hace que sea prácticamente un desafío cumplir plenamente con estas leyes. Las leyes de privacidad cambian constantemente, por lo que ciertamente esperamos que la llegada de la IA inspire más cambios en estas leyes.

6. Tenga en cuenta las regulaciones locales

Si su empresa opera en la Unión Europea, el cumplimiento del Reglamento General de Protección de Datos (GDPR) se vuelve fundamental. El RGPD mantiene regulaciones estrictas con respecto a la IA, centrándose particularmente en la transparencia, la minimización de datos y el consentimiento del usuario. El incumplimiento podría dar lugar a multas elevadas, por lo que es esencial comprender y cumplir estas regulaciones.

Al igual que el GDPR, la Ley de Inteligencia Artificial (AIA) propuesta por la Unión Europea es un nuevo marco legal destinado a regular el desarrollo y el uso de sistemas de IA. Se aplicaría a cualquier empresa de inteligencia artificial que haga negocios con ciudadanos de la UE, incluso si la empresa no está domiciliada en la UE.

La AIA regula los sistemas de IA basándose en un sistema de clasificación que mide el nivel de riesgo que la tecnología podría tener para la seguridad y los derechos fundamentales de un ser humano.

Los niveles de riesgo incluyen:

  • Bajo o mínimo (chatbots)
  • Alto (cirugías asistidas por robots, calificación crediticia)
  • Inaceptable (prohibido, explotar a grupos vulnerables y permitir la puntuación social por parte del gobierno)

Tanto las empresas de IA como las que integran herramientas de IA deberían considerar hacer que sus sistemas de IA sean compatibles desde el principio incorporando funciones de AIA durante las fases de desarrollo de su tecnología.

La AIA debería entrar en vigor a finales de 2023 con un período de transición de dos años para cumplir, cuyo incumplimiento podría dar lugar a multas de hasta 33 millones de euros o el 6% de los ingresos globales de una empresa (más pronunciada que el RGPD, cuyo incumplimiento es penalizada con una multa de 20 millones de euros o el 4% de los ingresos globales de una empresa, lo que sea mayor).

7. Determinar y alinear los deberes fiduciarios

Por último, los funcionarios y directores de su empresa tienen deberes fiduciarios de actuar en el mejor interés de la empresa. Nada nuevo ahí. Sin embargo, lo nuevo es que sus deberes fiduciarios pueden extenderse a decisiones que involucran IA generativa.

La junta directiva tiene la responsabilidad adicional de garantizar el uso ético y responsable de la tecnología por parte de la empresa. Los funcionarios y directores deben considerar posibles problemas legales y éticos, el impacto en la reputación de la empresa y las implicaciones financieras al trabajar con herramientas de IA.

Los funcionarios y directores deben estar completamente informados sobre los riesgos y beneficios de la IA generativa antes de tomar decisiones. De hecho, muchas empresas están nombrando directores de IA cuya responsabilidad es supervisar la estrategia, la visión y la implementación de la IA de la empresa.

La IA tendrá un impacto significativo en los deberes fiduciarios de los funcionarios y directores de las empresas. Los deberes fiduciarios se refieren a las responsabilidades que tienen los líderes de la empresa de actuar en el mejor interés de la empresa y sus accionistas.

Ahora, con el auge de la IA, estos líderes deberán mantenerse al día con la tecnología de IA para asegurarse de que están tomando las mejores decisiones para la empresa. Por ejemplo, es posible que necesiten utilizar herramientas de inteligencia artificial para ayudar a analizar datos y predecir tendencias del mercado. Si ignoran estas herramientas y toman malas decisiones, se podría considerar que no cumplen con sus deberes.

A medida que la IA se vuelve más frecuente, los funcionarios y directores deberán afrontar nuevos desafíos éticos y legales, como la privacidad de los datos y el sesgo algorítmico, para garantizar que administran la empresa de manera responsable y justa. Por tanto, la IA está añadiendo una nueva capa de complejidad a lo que significa ser un buen líder empresarial.

Establecer la ley con IA

Apenas el mes pasado, se introdujeron en el Congreso dos nuevas normas de IA generativa. En primer lugar, la Ley de Inmunidad Sin Sección 230 para la IA , un proyecto de ley que tiene como objetivo negar a las plataformas de IA generativa la inmunidad de la Sección 230 en virtud de la Ley de Decencia en las Comunicaciones .

Nota: La inmunidad de la Sección 230 generalmente aísla a los servicios informáticos en línea de responsabilidad con respecto al contenido de terceros alojado en su sitio y generado por sus usuarios. Quienes se oponen a este proyecto de ley argumentan que debido a que los usuarios brindan información, son los creadores de contenido, no la plataforma de IA generativa.

Alternativamente, los defensores del proyecto de ley argumentan que la plataforma proporciona información que genera el resultado en respuesta a la entrada del usuario, lo que convierte a la plataforma en cocreadora de ese contenido.

El proyecto de ley propuesto podría tener un efecto enorme: podría responsabilizar a las empresas de inteligencia artificial por el contenido generado por los usuarios que utilizan herramientas de inteligencia artificial.

La segunda política, el Marco de Innovación SAFE para la IA , se centra en cinco objetivos políticos: seguridad, responsabilidad, fundamentos, explicación e innovación. Cada objetivo tiene como objetivo equilibrar los beneficios sociales de la IA generativa con los riesgos de daño social, incluido el importante desplazamiento laboral, el mal uso por parte de adversarios y malos actores, la desinformación sobrealimentada y la amplificación de sesgos.

Continúe buscando nuevas leyes sobre IA generativa y pronunciamientos con respecto a cómo el despliegue de IA generativa interactúa con las leyes y regulaciones existentes.

Nota: Se prevé que las próximas elecciones de 2024 serán fundamentales para el panorama de la IA generativa desde una perspectiva regulatoria. HIPAA , por ejemplo, no es una ley de IA, pero deberá trabajar con regulaciones de IA generativa.

Si bien sus equipos legales lo mantendrán informado, es importante que todos los líderes empresariales sean conscientes de estos problemas.

No necesita ser un experto en todos los detalles legales, pero comprender las siete consideraciones lo ayudará a abordar sus inquietudes y saber cuándo acudir a un asesor legal para obtener asesoramiento experto.

Cuando la asociación entre la IA y las empresas se realiza correctamente, todos podemos contribuir al crecimiento y la protección de nuestras empresas, acelerando la innovación y evitando riesgos.

¿Se pregunta cómo está impactando la IA en la industria legal en su conjunto? Obtenga más información sobre la evolución de la IA y la ley y lo que depara el futuro para ambos.