Futurlex

Ciberseguridad

Apple prohíbe el uso de ChatGPT y otros chatbots de IA para proteger la confidencialidad de sus proyectos.

Recientemente, Apple ha tomado una medida drástica para salvaguardar la confidencialidad de sus proyectos futuros: ha prohibido a sus empleados hacer uso de ChatGPT y otros chatbots que empleen inteligencia artificial. Esta decisión busca prevenir la filtración de información sensible sobre los productos y proyectos en desarrollo de la reconocida empresa tecnológica. En este blog, exploraremos los motivos detrás de esta prohibición y cómo otras empresas también se están sumando a esta rigurosa política de seguridad. Según informes de The Wall Street Journal, Apple ha incluido a ChatGPT y a Copilot, un sistema automatizado de escritura de código desarrollado por Microsoft, en su lista de sitios prohibidos. Esta lista restringe el acceso de los empleados a estas herramientas que utilizan inteligencia artificial para diversas tareas, desde la redacción de correos hasta la programación de software. La rigurosidad en la protección de la información clasificada es una parte integral de la cultura de Apple, heredada de su fundador, Steve Jobs. La empresa se esfuerza por mantener en secreto sus futuros proyectos y productos hasta que sean oficialmente presentados. Esta política de confidencialidad es esencial para mantener su ventaja competitiva en el mercado. Según los informes, Apple estaría trabajando en el desarrollo de su propio modelo de lenguaje (LLM), es decir, su propia inteligencia artificial. Esta iniciativa indica que la empresa desea tener un mayor control sobre el flujo de información y evitar posibles brechas de seguridad relacionadas con el uso de herramientas externas. Uno de los motivos específicos que ha llevado a la prohibición de ChatGPT por parte de Apple es la preocupación de que el sistema esté divulgando datos de conversaciones privadas con los usuarios. OpenAI, la empresa desarrolladora de esta inteligencia artificial, ha reconocido el error y ha implementado una novedad de seguridad que permite borrar el historial de conversaciones para garantizar la privacidad de los usuarios. Apple no es la única empresa que ha tomado medidas para restringir el uso de ChatGPT y otros chatbots de IA. Amazon, Verizon y JPMorgan Chase también han vetado el uso de esta herramienta en sus instalaciones, demostrando una preocupación generalizada por la seguridad de la información confidencial. La prohibición de Apple respecto al uso de ChatGPT y otros chatbots de IA refleja la importancia que la empresa otorga a la protección de la información clasificada. Esta medida busca salvaguardar la confidencialidad de los proyectos y productos en desarrollo. Además, otras empresas importantes también se están sumando a esta política de seguridad, reconociendo la necesidad de proteger los datos y garantizar la privacidad de los usuarios. A medida que la tecnología avanza, es crucial establecer medidas rigurosas para mantener la confidencialidad y evitar posibles filtraciones que puedan afectar la competitividad y la reputación de las empresas en el mercado global.

LEER MÁS
Ciberseguridad

Regulación de la Inteligencia Artificial por el Parlamento Europeo: Opiniones y Controversias

La Inteligencia Artificial (IA) ha experimentado un rápido avance en los últimos años, lo que ha llevado a la necesidad de establecer regulaciones adecuadas para su implementación. El Parlamento Europeo ha sido un actor clave en este ámbito, buscando equilibrar el desarrollo y la adopción de la IA con la protección de los derechos fundamentales y los valores europeos. Sin embargo, esta regulación no está exenta de opiniones diversas y controversias. En este blog, exploraremos la regulación de la IA por parte del Parlamento Europeo, así como algunas opiniones y controversias asociadas. El Parlamento Europeo ha reconocido la importancia de establecer un marco legal para la IA que promueva la innovación y, al mismo tiempo, garantice la seguridad, la ética y la protección de los derechos humanos. En abril de 2021, aprobó un informe que abogaba por una regulación sólida de la IA, basada en los principios de transparencia, responsabilidad, robustez técnica y respeto de los derechos fundamentales. Como resultado de estas iniciativas, la Comisión Europea presentó en abril de 2021 una propuesta de Reglamento sobre la IA. Este reglamento tiene como objetivo establecer un marco legal claro y coherente para la IA en la Unión Europea. Propone una clasificación de los sistemas de IA en diferentes niveles de riesgo, desde los sistemas de alto riesgo hasta los de bajo riesgo. Además, busca proteger los derechos fundamentales y la privacidad de los ciudadanos, estableciendo requisitos específicos para la recopilación y uso de datos. La regulación propuesta por el Parlamento Europeo ha generado una serie de opiniones y controversias. A continuación, se presentan algunos puntos destacados: En conclusión, la regulación de la Inteligencia Artificial por parte del Parlamento Europeo ha generado una serie de opiniones y controversias. Si bien existe un consenso general sobre la necesidad de proteger los derechos fundamentales y garantizar la seguridad, la forma precisa de lograrlo sigue siendo objeto de debate. El equilibrio entre la innovación y la protección, la definición de sistemas de IA de alto riesgo y la medida en que se debe regular son algunas de las áreas clave que generan opiniones divergentes. A medida que avanza el debate, es fundamental encontrar soluciones que fomenten la adopción responsable de la IA y promuevan los valores europeos, sin poner en peligro la innovación y el crecimiento económico.

LEER MÁS
Privacidad

Multinacional sancionada por transferencia ilegal de datos personales: Un precedente en la protección de la privacidad en la UE.

La reciente sanción impuesta a la multinacional estadounidense Meta Platforms, propietaria de Facebook, Instagram y WhatsApp, por parte de la Comisión de Protección de Datos de Irlanda (DPC), ha generado un gran revuelo en el ámbito de la protección de datos y la privacidad en la Unión Europea (UE). La multa récord de 1.200 millones de euros impuesta a Meta Platforms marca un hito en la aplicación de las reglas de privacidad de la UE y envía un mensaje claro sobre la necesidad de proteger los datos personales de los ciudadanos europeos. Con respecto a la violación de las normas de privacidad y la sanción ejemplar, la investigación llevada a cabo por las autoridades irlandesas desde agosto de 2020 concluyó que Meta Platforms había infringido el artículo 46 del Reglamento General de Protección de Datos (GDPR) al transferir ilegalmente datos personales de usuarios de la UE a los Estados Unidos. Esta transferencia contravenía la sentencia del Tribunal de Justicia de la Unión Europea (TJUE) en el caso Comisionado de Protección de Datos contra Facebook Ireland Limited y Maximillian Schrems. La sanción de 1.200 millones de euros impuesta a Meta Platforms establece un precedente importante y envía un mensaje contundente de que las violaciones de privacidad no serán toleradas Sobre la suspensión de transferencias futuras y cláusulas contractuales estándar, la multa el DPC ha exigido que Meta Platforms suspenda cualquier transferencia futura de datos personales a los Estados Unidos dentro de un período de cinco meses. Aunque Meta Platforms argumentó que utilizaba cláusulas contractuales estándar (SCC) actualizadas adoptadas por la Comisión Europea en 2021, el DPC determinó que estas cláusulas no abordaban adecuadamente los riesgos para los derechos y libertades fundamentales de los usuarios identificados por el TJUE. Esta decisión resalta la importancia de implementar medidas efectivas y apropiadas para garantizar la protección de los datos personales en las transferencias transatlánticas. En la apelación y el conflicto de leyes, Meta Platforms ha anunciado su intención de apelar la decisión del DPC, incluyendo la multa considerada “injustificada e innecesaria”. La empresa sostiene que existe un conflicto fundamental entre las leyes de acceso a los datos del gobierno de los Estados Unidos y los derechos de privacidad europeos. Argumenta que los legisladores deberán resolver este conflicto de leyes en el futuro. Sin embargo, la sanción impuesta y la suspensión de transferencias de datos subrayan la importancia de garantizar un equilibrio adecuado entre los intereses de la seguridad nacional y la protección de la privacidad de los ciudadanos europeos. Para concluir la sanción impuesta a Meta Platforms por la transferencia ilegal de datos personales establece un precedente significativo en el ámbito de la protección de datos y la privacidad en la UE. La multa récord y la suspensión de transferencias de datos resaltan la necesidad de cumplir con las normativas de privacidad de la UE y garantizar que los datos personales de los ciudadanos europeos estén debidamente protegidos. A medida que avanza la digitalización y las transferencias transfronterizas de datos, es fundamental encontrar soluciones adecuadas y equilibradas que salvaguarden tanto la privacidad como la seguridad en el entorno digital actual.

LEER MÁS
Ciberseguridad

El mal uso de la inteligencia artificial: el caso del reconocimiento facial.

La inteligencia artificial (IA) es una tecnología que ha avanzado rápidamente en los últimos años, y se está utilizando en una amplia variedad de aplicaciones en la industria, la ciencia y la sociedad en general. Sin embargo, también existe el riesgo de que la IA se utilice de manera inapropiada o incluso malintencionada. Un ejemplo de esto es el uso del reconocimiento facial, que ha sido objeto de controversia en todo el mundo debido a su potencial para la invasión de la privacidad y la discriminación. Recientemente, se ha dado a conocer un caso en el que se utilizó el reconocimiento facial de manera indebida. La empresa Clearview AI, con sede en Nueva York, ha estado utilizando una base de datos de más de 3.000 millones de imágenes de personas recopiladas de redes sociales y otros sitios web, para crear un sistema de reconocimiento facial que se vende a la policía y otras agencias de aplicación de la ley. El sistema de Clearview AI ha sido utilizado por la policía en varios países, incluyendo Estados Unidos, Australia y Canadá, para identificar a sospechosos en casos criminales. Sin embargo, la empresa ha estado operando sin una licencia de la Comisión de Protección de Datos de Canadá, y ha sido objeto de múltiples demandas por invasión de la privacidad. La preocupación principal con el uso del reconocimiento facial es que puede utilizarse para rastrear y controlar a las personas sin su conocimiento o consentimiento. Los algoritmos utilizados para el reconocimiento facial pueden identificar a las personas en tiempo real a través de cámaras de vigilancia, lo que significa que la ubicación y los movimientos de las personas pueden ser monitoreados continuamente. Además, el reconocimiento facial puede utilizarse para discriminar a las personas en función de su apariencia, raza o género. La controversia en torno a Clearview AI es solo un ejemplo de cómo la IA puede utilizarse de manera inapropiada y potencialmente dañina. Es importante que se tomen medidas para regular el uso del reconocimiento facial y otras aplicaciones de la IA, para asegurar que se utilicen de manera ética y responsable. La Unión Europea ha sido pionera en la regulación de la IA, y ha presentado un borrador de reglamento que establece normas para la utilización de la IA en diferentes áreas, incluyendo la seguridad, la salud y la educación. El borrador también incluye disposiciones específicas para la regulación del reconocimiento facial, que solo se permitirá en circunstancias muy limitadas. En conclusión, el mal uso de la IA, como el caso del reconocimiento facial, es un problema creciente que requiere atención y regulación. Es importante que las empresas y los gobiernos tomen medidas para garantizar que la IA se utilice de manera ética y responsable, y que se proteja la privacidad y los derechos de las personas.

LEER MÁS
Ciberseguridad

Caso Facebook: ¿Es necesaria una Auditoría de Protección de Datos en nuestra empresa?

La Ley 1581 de 2012 extiende su aplicación a la protección de datos personales y su tratamiento dentro de redes sociales (portales de internet de uso interactivo entre personas), cuyo uso se de en territorio colombiano, por ende, haciendo énfasis en  el principio de legalidad, todo acto que transgreda directamente los derechos de los titulares será regido por la normatividad nacional. Teniendo en cuenta el caso particular, Facebook es una red social de que alberga la información de 2,4 billones de personas, y de 31 millones colombianos, lo cual convierte a  Facebook en responsable del tratamiento de los datos personales (cuales obligaciones se encuentran reguladas en el artículo 15 de la ley 1581 de 2012) de todos los usuarios que circulan dentro de ella, indicando que los mecanismos de seguridad deben ser eficientes a la hora de proteger los datos personales de forma certera. En los últimos años, las brechas de seguridad en Facebook han aumentado de manera considerable, por ejemplo el caso de Cambridge Analytica (robo de datos con fines de marketing político), hurto de tokens para robar cuentas, acceso a material delicado en chats de usuarios, entre otras. Las entidades encargadas de velar por la protección de los datos en cada país (como Irlanda, Estados Unidos, Inglaterra, Países bajos, Alemania, Canadá entre otros) han emitido un informe al respecto del desarrollo de Facebook y su impacto en dicha nación, instando a los responsables de la red social que implemente auditorías internas en la  aplicación para evaluar el sistema de seguridad, en busca de identificar posibles fallas y así corregirlas. Así mismo, la Superintendencia de Industria y Comercio, por medio de la Resolución 1321 de 2019, hace un llamado a Facebook, sobre las obligaciones legales que debe cumplir como responsable del tratamiento de datos personales, las cuales se encuentran reguladas en el artículo 27 denominado ‘Políticas Internas Efectivas’ de la presente ley, además, hace énfasis en las obligaciones consignadas en ‘La Guía para Implementar el Principio de Responsabilidad Demostrada’ para la protección de datos personales, de la que destacamos las siguientes: Diseñar e implementar Programa Integral de Gestión de Datos Personales. Diseñar e implementar planes de revisión, supervisión, evaluación y control del Programa Integral de Gestión de Datos Personales. Demostrar el debido cumplimiento legal. Debemos tener en cuenta que esta resolución desarrolla un barrido informativo de recomendaciones de seguridad en conjunto con los informes de otros países, con el fin de emitir un primer llamado de carácter preventivo para evitar que sucedan incidentes con usuarios de cuentas de esta red social dentro del territorio nacional. En ese mismo sentido, la Superintendencia de Industria y Comercio reivindica a través de esta resolución la necesidad de realizar Auditorías en Protección de Datos para cumplir de manera integral con normatividad y crear una cultura organizacional de privacidad y seguridad de la información.  

LEER MÁS
Ley 1581 de 2012

La transferencia internacional de datos en el Regimen de Proteccion de datos en Colombia

Hemos colaborado con la importante plataforma DataGuidance en el analisis de las transferencias de datos personales con ocasión de la expedicion de la Circular 05 de 2017, en la que la Superintedencia de Industria y Comercio estipula las condiciones para los flujos transfronterizos de datos personales y se establecen las previsiones sobre paises con nivel adecuado de protección de datos. Consulte el analisis en el siguiente link (Version en Ingles)

LEER MÁS

Acceso Panel

Accede al administrador de la web