Planes de la UE para etiquetar la IA

Noticias

HogarHogar / Noticias / Planes de la UE para etiquetar la IA

Mar 28, 2023

Planes de la UE para etiquetar la IA

La UE podría introducir legislación DSA como parte de su Ley AI que obligue

La UE podría introducir la legislación DSA como parte de su Ley de IA que obliga a empresas como Google y Microsoft a etiquetar el contenido de IA.

-

La Unión Europea ha instado a Google, Facebook, Microsoft y otras empresas a comenzar a etiquetar todo el contenido generado por IA, como deepfakes y medios sintéticos. La Ley de Servicios Digitales (DSA) de la UE exige que las plataformas en línea tomen medidas para evitar la difusión de contenido dañino, incluido el contenido generado por IA que podría usarse para engañar o engañar a los usuarios.

La DSA define el contenido generado por IA como "contenido generado por un sistema de inteligencia artificial, que incluye, entre otros, falsificaciones profundas, medios sintéticos y otras formas de contenido sintético". La DSA requiere que las plataformas en línea tomen medidas para evitar la difusión de contenido generado por IA que "probablemente cause un daño significativo", como "causar daño físico o psicológico", "dañar la reputación de un individuo u organización" o " interferir con una elección".

Google y Facebook han dicho que están comprometidos a cumplir con la DSA. Sin embargo, también han expresado su preocupación por el potencial de la DSA para sofocar la innovación. Está previsto que el reglamento entre en vigor en 2024. El llamamiento de la UE a Google y Facebook para que empiecen a etiquetar el contenido generado por IA es una señal de que la UE se está tomando en serio el tema del contenido generado por IA. El DSA podría tener un impacto significativo en la forma en que el contenido generado por IA se usa en línea.

El contenido generado por IA es contenido creado por una máquina, como texto, imágenes, audio o video. AI puede producir contenido basado en la entrada humana, como palabras clave, frases o temas, o utilizando datos preexistentes de Internet. El contenido generado por IA se puede utilizar para diversos fines, como marketing, entretenimiento, educación o periodismo.

Sin embargo, el contenido generado por IA también presenta algunos desafíos y riesgos. Por ejemplo, el contenido generado por IA se puede usar para crear noticias falsas, falsificaciones profundas u otras formas de desinformación que pueden dañar a las personas o a la sociedad. El contenido generado por IA también puede ser difícil de distinguir del contenido generado por humanos, especialmente a medida que mejora la calidad y el realismo de la IA.

Por lo tanto, la UE quiere introducir un sistema de etiquetado obligatorio para el contenido generado por IA, como parte de su regulación más amplia sobre inteligencia artificial. El sistema de etiquetado requeriría plataformas en línea para indicar claramente cuándo el contenido es producido por IA y proporcionar información sobre la fuente y el propósito del sistema de IA. El sistema de etiquetado también se aplicaría al contenido modificado o editado por AI.

La UE espera que el sistema de etiquetado ayude a los usuarios a tomar decisiones informadas sobre el contenido que consumen y comparten en línea. El sistema de etiquetado también ayudará a garantizar que los usuarios tengan derecho a saber cuándo interactúan con la IA y a proteger sus derechos y valores fundamentales.

La propuesta de la UE para etiquetar el contenido generado por IA aún se encuentra en sus primeras etapas, y deberá pasar por una consulta pública y un proceso legislativo antes de convertirse en ley. La UE espera adoptar el reglamento final sobre inteligencia artificial para 2024.

Se espera que la Unión Europea (UE) finalice su Ley de Inteligencia Artificial (IA) para 2024. La ley es parte de la estrategia digital más amplia de la UE, que tiene como objetivo fomentar la innovación y la competitividad en el sector digital al tiempo que protege los derechos y valores fundamentales.

La Ley de IA aún está en proceso de revisión, pero se espera que cree un marco legal para el desarrollo y despliegue de sistemas de IA en la UE. El marco se centrará en garantizar la seguridad, la transparencia y la rendición de cuentas. También introducirá una clasificación basada en el riesgo de los sistemas de IA, con requisitos más estrictos para aquellos considerados de "alto riesgo". Los sistemas de IA de alto riesgo son aquellos que pueden suponer un riesgo importante para la seguridad de las personas, los derechos fundamentales o el medio ambiente.

Parece que los chatbots de IA se enfrentan a un escrutinio cada vez mayor en Europa. Google ya ha anunciado que su Bard AI no estará disponible en la Unión Europea. Bard no está disponible en la UE debido a posibles problemas relacionados con el RGPD. El Reglamento General de Protección de Datos (RGPD) es una ley que protege la privacidad y los datos personales de los ciudadanos de la UE. Requiere que las empresas obtengan el consentimiento de los usuarios antes de recopilar y procesar sus datos, y otorgarles el derecho de acceder, corregir, eliminar o transferir sus datos.

Gestión de los riesgos de una ley de IA de tecnología en gran parte desconocida tiene como objetivo regular la IA generativa