Las herramientas de inteligencia artificial como ChatGPT enfrentan inconvenientes legales en diferentes países del mundo, está situación que comenzó en Italia ya amenaza con extenderse a nivel global.
Ya son innegables los problemas legales que está generando la inteligencia artificial; los litigios en los que se encuentran envueltas las empresas de IA, como OpenAI -que provee ChatGPT- han crecido como la espuma.
Cuando Italia prohibió el uso de ChatGPT en su territorio se dejó al descubierto la falta de regulaciones a nivel mundial que puedan regir de alguna forma el uso de estas nuevas herramientas.
Ante el posible cambio que podría experimentar la sociedad con el uso indiscriminado de la IA, el gobierno italiano fue el primero en ponerle un freno hasta tener un marco legal establecido.
La Unión Europea está enfocada en la creación de una Ley de Inteligencia Artificial, el Reino Unido pide a sus agencias que regulen la IA y los Estados Unidos trabaja en lo que se llama “Declaración de derechos de la inteligencia artificial”.
A esto se suma que usuarios de ChatGPT están presentando quejas a OpenAI por temas de seguridad.
La inteligencia artificial ha experimentado un auge exponencial y al parecer el mundo -y sus leyes- no estaban preparados para recibir este tipo de tecnología tan sofisticada y útil, pero a la vez tan delicada.
Esta herramienta ha desencadenado una serie de problemas legales y éticos en todo el mundo, ChatGPT es un claro ejemplo de cómo estas tecnologías están atravesando un laberinto legal en cada vez más países.
En el caso de Italia, ChatGPT enfrenta problemas relacionados con la violación de la privacidad y los derechos de autor.
Pero la mayor controversia se centra en la pregunta de quién es responsable de las acciones de ChatGPT? ¿Podría ser Open AI como desarrollador de la herramienta, o los usuarios que la utilizan para generar contenido?.
Este dilema legal no es exclusivo de Italia. En todo el mundo se está hablando de las implicaciones legales que podría traer algo que carece de normas y que debutó dentro de un vacío legal.
El derecho de autor y la propiedad intelectual representan uno de los principales problemas legales que enfrenta ChatGPT y otras herramientas similares.
Estos modelos son entrenados utilizando grandes volúmenes de datos que incluyen contenido protegido por derechos de autor, cuando una IA genera contenido en base a una obra protegida surge la pregunta de si se ha violado la propiedad intelectual.
Tampoco está claro si el contenido producido por una IA pudiera ser elegible para la protección de derechos de autor, se argumenta que no debería ser considerada como autor porque carece de intención creativa y capacidad para reclamar derechos.
Lo cierto es que los chats de inteligencia artificial son un modelo de lenguaje, no una entidad autónoma con voluntad e intención de crear.
Pero otro argumento sostiene que las obras generadas por IA son el resultado de un proceso creativo por parte de la persona que la utiliza y, por lo tanto, deben tener ciertos derechos de autor y protección legal.
Estos modelos de IA enfrentan problemas legales con la privacidad y el uso de la información porque se entrenan con enormes cantidades de datos, incluidos textos, imágenes y videos que pueden contener información personal o confidencial.
La legislación sobre privacidad de datos, como el Reglamento General de Protección de Datos de la Unión Europea establece requisitos estrictos sobre cómo se recopilan, almacenan y utilizan los datos personales.
La empresas o entes que utilizan IA pueden enfrentar litigios si no cumplen con estas regulaciones, especialmente si se descubre que están utilizando información personal.
El Centro de IA y Política Digital presentó una queja a la Comisión Federal de Comercio con la intención de impedir que OpenAI desarrolle nuevos modelos de ChatGPT hasta que se establezcan medidas de seguridad.
El Italia se inició una investigación sobre OpenAI por una violación de datos y la falta de verificación de edad para proteger a los usuarios más jóvenes del contenido de IA inapropiado.
La Comisión de Protección de Datos de Irlanda planea coordinarse con la Comisión de Protección de Datos de Italia y la UE para determinar si ChatGPT ha violado las leyes de privacidad.
En principio, el debate se está centrando en la creación de instrumentos legales que puedan hacer frente a esta nueva tecnología.
Recientemente OpenAI reafirmó su compromiso de crear sistemas que sean seguros, precisos y privados.
Pero las investigaciones y los cuestionamientos continúan y estas demandas por crear un marco legal no cesarán.
Los usuarios serían los primeros beneficiados con la existencia de leyes que regulen el asunto; ante una tecnología tan potente podrían incurrir – sin querer en muchos casos – en algunas situaciones que se tipifican como delitos.
Si los usuarios conocen los términos o políticas de OpenAI al usar herramientas como ChatGPT, podrían ser más responsables de su uso.
Tampoco hay que olvidar que OpenAI no garantiza que sus servicios siempre funcionen como se espera o que cierto contenido sea seguro, y señala que no será responsable de tales resultados.
La prohibición o no de estos modelos de IA tendría que pasar primero por un consenso mundial después de crear leyes que lo regulen y constatar que se cumplan.
Las herramientas de inteligencia artificial como ChatGPT enfrentan inconvenientes legales y por este motivo la creación de un marco legal sostenible y efectivo es la principal prioridad en momentos en que se encuentra en “tierra de nadie”.
Ver también:
A tan solo días de las fiestas de Navidad, un plan de dieta antes de… Leer más
A continuación presentamos un resumen del precio del dólar hoy 12/12/2024 en Venezuela, según cómo… Leer más
Cada religión tiene su forma de recordar el nacimiento del hijo de Dios, pero poco… Leer más
Ayer se pudo conocer por filtraciones en algunos medios especializados que Los NY Mets firmarían… Leer más
Todos conocen la preciosa melodía de Noche de Paz, un ícono absoluto de la navidad,… Leer más