Cada día es más común que las personas utilicen herramientas de inteligencia artificial (IA) en sus actividades personales y profesionales diarias. Muchos recurren a ellas para realizar consultas que antes solían hacer en Google, planear viajes, llevar un diario, recibir orientación psicológica, obtener asesoría de negocios o elaborar contratos, entre otros usos. Cuando estas actividades se desarrollan en el ámbito personal, la responsabilidad de su utilización recae directamente en el usuario. No obstante, en el ámbito profesional, las empresas deben vigilar que el uso que hacen sus empleados no represente una contingencia jurídica que pueda afectarles posteriormente. Esto hace necesaria la elaboración e implementación de políticas que definan las buenas y malas prácticas en el uso de herramientas de IA dentro del negocio.


Es evidente que el uso de herramientas de IA se ha convertido en una necesidad empresarial para llevar a cabo ciertas tareas de forma más eficaz y eficiente, mejorando el desempeño de diversas áreas de los negocios y permitiendo a las empresas mantenerse a la vanguardia en un mundo corporativo altamente competitivo. Sin embargo, este uso también expone a las empresas a ciertas situaciones de riesgo legal, relacionadas con posibles infracciones en materia de propiedad intelectual, protección de datos personales y cumplimiento de obligaciones de confidencialidad.

Para prevenir estas situaciones de riesgo, es necesario que las empresas elaboren e implementen políticas de buenas y malas prácticas, las cuales deben ser comunicadas tanto a sus empleados como a los terceros con los que comparten información.

Con la finalidad de generar conciencia y proporcionar a las empresas una guía sobre cómo regirse en este tema, la Organización Mundial de Propiedad Intelectual (OMPI) emitió el 28 de febrero del 2024 una guía titulada “IA generativa. Cómo abordar la propiedad intelectual”, disponible en este enlace.

Esta guía describe algunos de los principales problemas y riesgos que deben considerar las empresas, y también propone ciertas medidas de mitigación que podrían ser de ayuda para evitar infringir derechos de propiedad intelectual.

Entre las principales medidas recomendadas, destacan las agrupadas en las siguientes categorías:

  • Elaboración de políticas y capacitación del personal de la empresa.
  • Generación de un perfil de riesgos por el uso de la IA y seguimiento del mismo.
  • Alta y mantenimiento de registros del uso de herramientas de IA en la empresa, de los contenidos generados por IA y de las personas involucradas en el proceso de creación.
  • Evaluación de las herramientas de IA y los datos usados en las mismas.
  • Verificación de que los productos de IA no infrinjan derechos de propiedad intelectual y, en su caso, documentación de licencias o acuerdos para obtener derechos sobre los mismos.

Estas categorías sirven como base para establecer políticas y guías internas que regulen el comportamiento de la empresa y sus respectivos empleados.

A pesar de que esta lista de medidas es útil para regular situaciones generales dentro de las empresas, sigue siendo necesario identificar conductas específicas que se deben permitir, prohibir o limitar.  A continuación, compartimos un resumen de algunas acciones que pueden ser consideradas como buenas y malas prácticas en el uso de herramientas de la IA:

Ejemplos de cinco malas prácticas relacionadas con el uso de IA:

  1. Divulgación de información confidencial: puede ocurrir cuando se introducen en las herramientas de IA datos o documentos de carácter confidencial, ya sean internos o de clientes. Algunos programas de IA incluyen disclaimers donde recomiendan a los usuarios no subir información confidencial. El riesgo con esta práctica radica en que la empresa que tenga el control de la IA podría tener acceso a la información, o que se haga referencia a la misma en consultas de otros usuarios.
  2. Divulgación de datos personales o datos sensibles: puede suceder cuando la información que se proporciona a la herramienta incluye datos que permiten identificar a una persona física y, en algunos casos, considerados sensibles (información sobre salud, ideología religiosa, preferencias sexuales, etc.) o confidenciales (información financiera). Aquellas áreas de las empresas que manejen información personal, financiera y sensible -como pueden ser departamentos de recursos humanos, despachos de cobranza e instituciones de salud- deben ser muy cuidadosas cuando utilicen este tipo de herramientas, ya que podrían estar expuestas a una vulneración de la información utilizada.
  3. Solicitar al programa de IA que genere contenido similar a derechos de propiedad intelectual protegidos por terceros: puede ocurrir cuando el usuario del programa da instrucciones para que el contenido se parezca a una obra ya existente, que podría estar protegida como derecho de autor, marca u otro derecho de propiedad intelectual.
  4. Manifestar como propio el contenido generado por el programa de IA: este tipo de conductas podrían tener como consecuencia una situación de plagio o de infracción de derechos de terceros.
  5. Falta de verificación de la veracidad del contenido generado: esto podría tener como resultado una responsabilidad profesional (por ejemplo, para abogados y doctores) o comercial (como el incumplimiento de disposiciones de protección al consumidor). Las mismas herramientas de IA incluyen disclaimers donde indican que son susceptibles de cometer errores e invitan a los usuarios a verificar la información generada.

Ejemplos de cinco buenas prácticas relacionadas con el uso de IA:

  1. Usar las herramientas para mejorar ideas/trabajos, pero no para generarlos: en lugar de dar instrucciones a los programas de IA sobre cómo crear un contenido, una mejor práctica sería generar un primer borrador/boceto e irlo editando/adaptando con ayuda de la IA. De esta forma, se reduce el riesgo de plagio o infracción de derechos de terceros, ya que la base del trabajo sería de autoría del usuario.
  2. Anonimizar o desvincular los datos personales subidos a los programas de IA: esta práctica se puede llevar a cabo reemplazando o sustituyendo los datos personales que figuran en los documentos a utilizar. Por ejemplo, podrían reemplazarse los nombres reales de las personas por nombres ficticios o códigos. Es importante que la información que se suba no permita identificar a la persona a cuya identidad pertenece para mitigar un riesgo de datos personales.
  3. No compartir información confidencial: como en el punto anterior, en caso de que sea necesario utilizar ciertos documentos que tengan información confidencial en los programas de IA, la solución podría ser alterar, restringir o eliminar esa parte con el fin de preservar su secrecía.
  4. Verificar la información generada: siempre conviene acudir a consultar fuentes oficiales que puedan constatar que la información generada sea correcta y no tenga errores. Por ejemplo, en el caso de opiniones legales, la recomendación sería revisar directamente las leyes y criterios jurídicos que sean citados en las opiniones para verificar que la interpretación sea correcta.
  5. Tener cuidado con las instrucciones proporcionadas a las herramientas: evitar utilizar instrucciones como “generar contenido tipo, similar, parecido a” o similares, que puedan invadir derechos de propiedad intelectual de terceros.

En conclusión, el uso de herramientas de IA representa una valiosa oportunidad para optimizar procesos dentro de las empresas, pero también implica asumir nuevas responsabilidades y riesgos.

Es importante que las empresas establezcan políticas claras, en las que se definan las conductas permitidas y prohibidas en relación con las herramientas de IA, para garantizar que estas prácticas se realicen en una manera segura, ética y conforme a las leyes aplicables. Contar con una cultura organizacional que promueva el uso responsable de la IA no solo servirá para mitigar contingencias legales, sino que también fortalecerá la reputación y sostenibilidad de las empresas en el largo plazo.

Javier Villanueva

Departamento de Propiedad Industrial e Intelectual