La Comisión Europea ha publicado sus directrices para aclarar la aplicación de la ley de Inteligencia Artificial a las empresas que ofrecen este servicio con carácter generalista. Con ello intenta alentarlas a adherirse a un código de buenas prácticas que cree que ayudaría a los proveedores de modelos de IA como ChatGPT y Gemini a cumplir con la Ley europea de IA. La publicación del este Código se produce cuando falta menos de un mes para que las normas entren en vigor el 2 de agosto. El documento incluye tres capítulos: Transparencia y Derechos de Autor, ambos dirigidos a todos los proveedores de modelos de IA de propósito general, y Seguridad y Protección, relevante solo para un número limitado de proveedores de los modelos más avanzados. Aunque la Comisión cree que las empresas que se adhieran cumplirán con la Ley de IA y tendrán mayor seguridad jurídica, bajo la amenaza de que si no lo aceptan serán inspeccionadas con más severidad, una de las más poderosas, Meta, dijo este viernes que no le interesa firmar ese código de conducta porque cree que estaría limitando el desarrollo de este sector.Noticia Relacionada estandar No OpenAI convierte a ChatGPT en un asistente con superpoderes capaz de realizar compras Rodrigo Alonso Su nueva máquina, llamada Agent, será capaz de realizar compras por el usuario y de agilizarle notablemente el trabajo gracias a su acceso al navegador y a herramientas como GMail o CalendarLa UE se considera una pionera debido que fue la primera entidad del mundo en promulgar una ley que gestiona la inteligencia artificial. Sin embargo, ese papel de adelantado supone también afrontar terrenos desconocidos y no siempre sencillos. En su comunicado Meta asegura que ahora mismo « Europa va por mal camino en materia de IA . Hemos revisado detenidamente el Código de Prácticas de la Comisión Europea para los modelos GPAI y Meta no lo firmará» porque «introduce una serie de incertidumbres jurídicas para los desarrolladores de modelos, así como medidas que van mucho más allá del ámbito de aplicación de la Ley de IA». Ese código de conducta empieza por pedir a las compañías que se clasifiquen a si mismas dependiendo si se considera de propósito general porque fue «entrenada» utilizando una cantidad de recursos computacionales superior a 10^23 operaciones de coma flotante y si puede generar lenguaje humano, ya sea en forma de texto o audio o puede convertir texto a imagen o texto a vídeo. Un año de adaptaciónAquellos proveedores que operan bajo una licencia libre y de código abierto y que cumplen ciertas condiciones de transparencia pueden estar exentos de ciertas obligaciones legales, a ojos del ejecutivo comunitario.Pero como reglas comunes los proveedores se deben comprometer a cumplir con las reglas que regulan los derechos de autor y las más avanzadas deben mitigar los riesgos sistémicos en el marco de los derechos fundamentales y la seguridad , así como riesgos relacionados con la pérdida de control sobre el modelo de IA. Durante el primer año tras la entrada en vigor de estas obligaciones, la Comisión se compromete a colaborar estrechamente con los proveedores, en particular con aquellos que se adhieran al Código de buenas Prácticas, para ayudarles a cumplir con las normas. A partir del 2 de agosto de 2025, se aplicarán las normas que obligan a empresas como OpenAI a cumplir con requisitos de transparencia, como la elaboración de documentación técnica, la adopción de políticas de derechos de autor y el resumen detallado sobre el contenido utilizado para la capacitación de los algoritmos. Exactamente un año después, las que no cumplan podrán ser multadas.

Leave a Reply