Futurlex

FUTURLEX

Privacidad

Ciberseguridad

Apple prohíbe el uso de ChatGPT y otros chatbots de IA para proteger la confidencialidad de sus proyectos.

Recientemente, Apple ha tomado una medida drástica para salvaguardar la confidencialidad de sus proyectos futuros: ha prohibido a sus empleados hacer uso de ChatGPT y otros chatbots que empleen inteligencia artificial. Esta decisión busca prevenir la filtración de información sensible sobre los productos y proyectos en desarrollo de la reconocida empresa tecnológica. En este blog, exploraremos los motivos detrás de esta prohibición y cómo otras empresas también se están sumando a esta rigurosa política de seguridad. Según informes de The Wall Street Journal, Apple ha incluido a ChatGPT y a Copilot, un sistema automatizado de escritura de código desarrollado por Microsoft, en su lista de sitios prohibidos. Esta lista restringe el acceso de los empleados a estas herramientas que utilizan inteligencia artificial para diversas tareas, desde la redacción de correos hasta la programación de software. La rigurosidad en la protección de la información clasificada es una parte integral de la cultura de Apple, heredada de su fundador, Steve Jobs. La empresa se esfuerza por mantener en secreto sus futuros proyectos y productos hasta que sean oficialmente presentados. Esta política de confidencialidad es esencial para mantener su ventaja competitiva en el mercado. Según los informes, Apple estaría trabajando en el desarrollo de su propio modelo de lenguaje (LLM), es decir, su propia inteligencia artificial. Esta iniciativa indica que la empresa desea tener un mayor control sobre el flujo de información y evitar posibles brechas de seguridad relacionadas con el uso de herramientas externas. Uno de los motivos específicos que ha llevado a la prohibición de ChatGPT por parte de Apple es la preocupación de que el sistema esté divulgando datos de conversaciones privadas con los usuarios. OpenAI, la empresa desarrolladora de esta inteligencia artificial, ha reconocido el error y ha implementado una novedad de seguridad que permite borrar el historial de conversaciones para garantizar la privacidad de los usuarios. Apple no es la única empresa que ha tomado medidas para restringir el uso de ChatGPT y otros chatbots de IA. Amazon, Verizon y JPMorgan Chase también han vetado el uso de esta herramienta en sus instalaciones, demostrando una preocupación generalizada por la seguridad de la información confidencial. La prohibición de Apple respecto al uso de ChatGPT y otros chatbots de IA refleja la importancia que la empresa otorga a la protección de la información clasificada. Esta medida busca salvaguardar la confidencialidad de los proyectos y productos en desarrollo. Además, otras empresas importantes también se están sumando a esta política de seguridad, reconociendo la necesidad de proteger los datos y garantizar la privacidad de los usuarios. A medida que la tecnología avanza, es crucial establecer medidas rigurosas para mantener la confidencialidad y evitar posibles filtraciones que puedan afectar la competitividad y la reputación de las empresas en el mercado global.

LEER MÁS
Ciberseguridad

Regulación de la Inteligencia Artificial por el Parlamento Europeo: Opiniones y Controversias

La Inteligencia Artificial (IA) ha experimentado un rápido avance en los últimos años, lo que ha llevado a la necesidad de establecer regulaciones adecuadas para su implementación. El Parlamento Europeo ha sido un actor clave en este ámbito, buscando equilibrar el desarrollo y la adopción de la IA con la protección de los derechos fundamentales y los valores europeos. Sin embargo, esta regulación no está exenta de opiniones diversas y controversias. En este blog, exploraremos la regulación de la IA por parte del Parlamento Europeo, así como algunas opiniones y controversias asociadas. El Parlamento Europeo ha reconocido la importancia de establecer un marco legal para la IA que promueva la innovación y, al mismo tiempo, garantice la seguridad, la ética y la protección de los derechos humanos. En abril de 2021, aprobó un informe que abogaba por una regulación sólida de la IA, basada en los principios de transparencia, responsabilidad, robustez técnica y respeto de los derechos fundamentales. Como resultado de estas iniciativas, la Comisión Europea presentó en abril de 2021 una propuesta de Reglamento sobre la IA. Este reglamento tiene como objetivo establecer un marco legal claro y coherente para la IA en la Unión Europea. Propone una clasificación de los sistemas de IA en diferentes niveles de riesgo, desde los sistemas de alto riesgo hasta los de bajo riesgo. Además, busca proteger los derechos fundamentales y la privacidad de los ciudadanos, estableciendo requisitos específicos para la recopilación y uso de datos. La regulación propuesta por el Parlamento Europeo ha generado una serie de opiniones y controversias. A continuación, se presentan algunos puntos destacados: En conclusión, la regulación de la Inteligencia Artificial por parte del Parlamento Europeo ha generado una serie de opiniones y controversias. Si bien existe un consenso general sobre la necesidad de proteger los derechos fundamentales y garantizar la seguridad, la forma precisa de lograrlo sigue siendo objeto de debate. El equilibrio entre la innovación y la protección, la definición de sistemas de IA de alto riesgo y la medida en que se debe regular son algunas de las áreas clave que generan opiniones divergentes. A medida que avanza el debate, es fundamental encontrar soluciones que fomenten la adopción responsable de la IA y promuevan los valores europeos, sin poner en peligro la innovación y el crecimiento económico.

LEER MÁS
Privacidad

Multinacional sancionada por transferencia ilegal de datos personales: Un precedente en la protección de la privacidad en la UE.

La reciente sanción impuesta a la multinacional estadounidense Meta Platforms, propietaria de Facebook, Instagram y WhatsApp, por parte de la Comisión de Protección de Datos de Irlanda (DPC), ha generado un gran revuelo en el ámbito de la protección de datos y la privacidad en la Unión Europea (UE). La multa récord de 1.200 millones de euros impuesta a Meta Platforms marca un hito en la aplicación de las reglas de privacidad de la UE y envía un mensaje claro sobre la necesidad de proteger los datos personales de los ciudadanos europeos. Con respecto a la violación de las normas de privacidad y la sanción ejemplar, la investigación llevada a cabo por las autoridades irlandesas desde agosto de 2020 concluyó que Meta Platforms había infringido el artículo 46 del Reglamento General de Protección de Datos (GDPR) al transferir ilegalmente datos personales de usuarios de la UE a los Estados Unidos. Esta transferencia contravenía la sentencia del Tribunal de Justicia de la Unión Europea (TJUE) en el caso Comisionado de Protección de Datos contra Facebook Ireland Limited y Maximillian Schrems. La sanción de 1.200 millones de euros impuesta a Meta Platforms establece un precedente importante y envía un mensaje contundente de que las violaciones de privacidad no serán toleradas Sobre la suspensión de transferencias futuras y cláusulas contractuales estándar, la multa el DPC ha exigido que Meta Platforms suspenda cualquier transferencia futura de datos personales a los Estados Unidos dentro de un período de cinco meses. Aunque Meta Platforms argumentó que utilizaba cláusulas contractuales estándar (SCC) actualizadas adoptadas por la Comisión Europea en 2021, el DPC determinó que estas cláusulas no abordaban adecuadamente los riesgos para los derechos y libertades fundamentales de los usuarios identificados por el TJUE. Esta decisión resalta la importancia de implementar medidas efectivas y apropiadas para garantizar la protección de los datos personales en las transferencias transatlánticas. En la apelación y el conflicto de leyes, Meta Platforms ha anunciado su intención de apelar la decisión del DPC, incluyendo la multa considerada “injustificada e innecesaria”. La empresa sostiene que existe un conflicto fundamental entre las leyes de acceso a los datos del gobierno de los Estados Unidos y los derechos de privacidad europeos. Argumenta que los legisladores deberán resolver este conflicto de leyes en el futuro. Sin embargo, la sanción impuesta y la suspensión de transferencias de datos subrayan la importancia de garantizar un equilibrio adecuado entre los intereses de la seguridad nacional y la protección de la privacidad de los ciudadanos europeos. Para concluir la sanción impuesta a Meta Platforms por la transferencia ilegal de datos personales establece un precedente significativo en el ámbito de la protección de datos y la privacidad en la UE. La multa récord y la suspensión de transferencias de datos resaltan la necesidad de cumplir con las normativas de privacidad de la UE y garantizar que los datos personales de los ciudadanos europeos estén debidamente protegidos. A medida que avanza la digitalización y las transferencias transfronterizas de datos, es fundamental encontrar soluciones adecuadas y equilibradas que salvaguarden tanto la privacidad como la seguridad en el entorno digital actual.

LEER MÁS
Ciberseguridad

Procedimiento de eliminación segura de información: Garantizando la seguridad y privacidad de los datos.

En un mundo cada vez más digitalizado, garantizar la seguridad y privacidad de la información se ha convertido en una preocupación fundamental para las organizaciones. El manejo adecuado de la eliminación de datos se vuelve crucial para evitar brechas de seguridad y posibles riesgos legales. En este artículo, exploraremos el procedimiento de eliminación segura de información de acuerdo con las políticas de seguridad y privacidad, asegurando que los datos sean eliminados de manera permanente y efectiva. Se deben tener en cuenta los siguientes elementos: Evaluación de los datos a eliminar: Antes de comenzar el proceso de eliminación, es esencial realizar una evaluación exhaustiva de los datos a eliminar. Esto implica identificar los tipos de datos almacenados, su ubicación, así como los requisitos legales y de retención asociados. Esta evaluación ayuda a establecer prioridades y a determinar el enfoque más adecuado para la eliminación. Desarrollo de una política de eliminación segura: Una política de eliminación segura establece los procedimientos y las directrices específicas para garantizar la eliminación adecuada de los datos. Debe incluir pasos claros sobre cómo identificar, revisar y eliminar los datos de manera segura, asegurando el cumplimiento de las leyes y regulaciones aplicables. Selección de métodos de eliminación: Existen varios métodos para eliminar datos de manera segura. Algunas opciones incluyen la sobrescritura segura de datos, el borrado lógico, el formateo seguro y la destrucción física de los medios de almacenamiento. La elección del método dependerá de factores como el tipo de datos, el nivel de seguridad requerido y los recursos disponibles. Implementación de medidas de seguridad adicionales: Durante el proceso de eliminación, es fundamental implementar medidas de seguridad adicionales para proteger los datos sensibles. Esto puede incluir el uso de técnicas de cifrado, contraseñas fuertes y restricciones de acceso a fin de evitar cualquier acceso no autorizado durante el proceso de eliminación. Registro y documentación: Es importante llevar un registro detallado de todas las actividades relacionadas con la eliminación segura de datos. Esto implica documentar los datos eliminados, los métodos utilizados, las fechas y los responsables del proceso. Estos registros proporcionan una trazabilidad y una evidencia sólida en caso de auditorías o investigaciones futuras. Verificación de la eliminación: Una vez completada la eliminación de datos, es esencial realizar verificaciones para asegurarse de que los datos hayan sido eliminados de manera efectiva. Esto puede implicar la realización de pruebas de recuperación para confirmar que los datos no son accesibles y la revisión de los registros de actividad para garantizar la eliminación exitosa. Teniendo en cuenta los aspectos mencionados es importante asegurarnos de realizar una eliminación correcta de la información, ya que es un aspecto fundamental de la protección de datos y la privacidad. Siguiendo un procedimiento adecuado, las organizaciones pueden garantizar que los datos sean eliminados de manera permanente y segura, reduciendo así los riesgos asociados con la exposición no autorizada de información sensible. Elaborado: Equipo Futurlex apoyado por Inteligencia Artificial.

LEER MÁS
Chat GPT
Habeas Data

La SIC anuncia investigación a Open AI por preocupaciones en materia de privacidad en Colombia.

En una noticia reciente, la Superintendencia de Industria y Comercio (SIC) de Colombia ha anunciado la apertura de una investigación a OpenAI, la organización detrás del modelo de lenguaje AI conocido como Chat GPT. Esta medida se ha tomado con el objetivo de evaluar si la aplicación cumple con la regulación de protección de datos personales. La investigación refleja las crecientes preocupaciones en torno a la privacidad y el uso responsable de la inteligencia artificial en el país. Los modelos de lenguaje AI, como Chat GPT, han ganado popularidad en diversas áreas, desde la asistencia en la redacción de textos hasta la interacción con usuarios en línea. Sin embargo, esta tecnología plantea interrogantes en términos de privacidad y protección de datos personales. Una de las principales preocupaciones es la recopilación y el uso de datos. Para entrenar y mejorar el modelo, se requiere una cantidad considerable de información, incluyendo datos personales. Si no se implementan medidas adecuadas de consentimiento y seguridad, existe el riesgo de que la privacidad de los usuarios se vea comprometida. Otra preocupación relevante es el posible sesgo inherente en los modelos de lenguaje AI. Estos aprenden de los datos con los que son entrenados, y si los datos contienen sesgos, como estereotipos o discriminación, existe el peligro de que los resultados generados por el modelo también reflejen esos sesgos, lo cual puede tener implicaciones negativas en términos de equidad y justicia. Es importante destacar que esta investigación no se centra exclusivamente en OpenAI o en Chat GPT, sino que es parte de un esfuerzo más amplio para garantizar el cumplimiento de la regulación de protección de datos personales en el contexto de la inteligencia artificial. La SIC está trabajando para evaluar si OpenAI ha implementado las salvaguardias y políticas necesarias para proteger la privacidad de los usuarios y cumplir con las regulaciones vigentes en Colombia. Es importante destacar que estas preocupaciones no están específicamente relacionadas con OpenAI o Chat GPT, sino que son desafíos generales asociados con el desarrollo y la implementación de tecnologías de IA en general. Las autoridades de protección de datos y otras organizaciones están trabajando en todo el mundo para abordar estas preocupaciones y establecer regulaciones y marcos éticos adecuados para el uso responsable de la IA. La investigación abierta por la Superintendencia de Industria y Comercio de Colombia a OpenAI y su aplicación Chat GPT refleja la creciente preocupación en torno a la privacidad y el uso responsable de los modelos de lenguaje AI. Si bien estos avances tecnológicos tienen un gran potencial, es fundamental abordar las preocupaciones de privacidad y protección de datos para garantizar un uso ético y seguro de la inteligencia artificial. La investigación en curso arrojará luz sobre cómo se están abordando estas preocupaciones y ayudará a impulsar el desarrollo de mejores prácticas en el campo de la inteligencia artificial y la protección de datos personales.

LEER MÁS
Ciberseguridad

El mal uso de la inteligencia artificial: el caso del reconocimiento facial.

La inteligencia artificial (IA) es una tecnología que ha avanzado rápidamente en los últimos años, y se está utilizando en una amplia variedad de aplicaciones en la industria, la ciencia y la sociedad en general. Sin embargo, también existe el riesgo de que la IA se utilice de manera inapropiada o incluso malintencionada. Un ejemplo de esto es el uso del reconocimiento facial, que ha sido objeto de controversia en todo el mundo debido a su potencial para la invasión de la privacidad y la discriminación. Recientemente, se ha dado a conocer un caso en el que se utilizó el reconocimiento facial de manera indebida. La empresa Clearview AI, con sede en Nueva York, ha estado utilizando una base de datos de más de 3.000 millones de imágenes de personas recopiladas de redes sociales y otros sitios web, para crear un sistema de reconocimiento facial que se vende a la policía y otras agencias de aplicación de la ley. El sistema de Clearview AI ha sido utilizado por la policía en varios países, incluyendo Estados Unidos, Australia y Canadá, para identificar a sospechosos en casos criminales. Sin embargo, la empresa ha estado operando sin una licencia de la Comisión de Protección de Datos de Canadá, y ha sido objeto de múltiples demandas por invasión de la privacidad. La preocupación principal con el uso del reconocimiento facial es que puede utilizarse para rastrear y controlar a las personas sin su conocimiento o consentimiento. Los algoritmos utilizados para el reconocimiento facial pueden identificar a las personas en tiempo real a través de cámaras de vigilancia, lo que significa que la ubicación y los movimientos de las personas pueden ser monitoreados continuamente. Además, el reconocimiento facial puede utilizarse para discriminar a las personas en función de su apariencia, raza o género. La controversia en torno a Clearview AI es solo un ejemplo de cómo la IA puede utilizarse de manera inapropiada y potencialmente dañina. Es importante que se tomen medidas para regular el uso del reconocimiento facial y otras aplicaciones de la IA, para asegurar que se utilicen de manera ética y responsable. La Unión Europea ha sido pionera en la regulación de la IA, y ha presentado un borrador de reglamento que establece normas para la utilización de la IA en diferentes áreas, incluyendo la seguridad, la salud y la educación. El borrador también incluye disposiciones específicas para la regulación del reconocimiento facial, que solo se permitirá en circunstancias muy limitadas. En conclusión, el mal uso de la IA, como el caso del reconocimiento facial, es un problema creciente que requiere atención y regulación. Es importante que las empresas y los gobiernos tomen medidas para garantizar que la IA se utilice de manera ética y responsable, y que se proteja la privacidad y los derechos de las personas.

LEER MÁS
Ciberseguridad

CHAT GPT VENTAJAS Y FUNCIONAMIENTOS

Las nuevas tecnologías con el paso del tiempo han creado diferentes herramientas para facilitar las actividades diarias del ser humano en diversos ámbitos de su vida. Una de estas nuevas creaciones es el famoso Chat GPT que le ha dado vuelta al mundo por sus precisión e innovación. A continuación, te traemos algunos beneficios de este programa: Ahora bien, teniendo en cuenta estos beneficios podemos concluir que la inteligencia artificial se ha convertido en una herramienta esencial en el mundo de los negocios, la tecnología y la vida diaria. La capacidad de procesar grandes cantidades de datos, mejorar la eficacia, personalizar la experiencia del usuario y reducir costos son solo algunas de las muchas ventajas que ofrece la inteligencia artificial, incluyendo la herramienta de chat GPT. A medida que la tecnología continúa evolucionando, es probable que veamos aun mas beneficios y aplicaciones innovadoras de la inteligencia artificial en el futuro. Es importante seguir investigando y aprendiendo sobre esta tecnología para aprovechar al máximo sus ventajas.

LEER MÁS
RRSS
Habeas Data

Visión legal de las nuevas políticas de WhatsApp: ¿Cuál es el verdadero lio?

Por: Gloria C. Toffanello En conmemoración del 28 de Enero, en el cual se celebra el día internacional de protección de datos personales, es pertinente traer a colación un tema que ha causado controversia dentro del panorama de privacidad. WhatsApp es bien conocida por ser una plataforma de intercambio de mensajes, llamadas, y archivos, siendo generalmente la aplicación web/móvil número uno en descargas para comunicarse. Hace un mes, la plataforma informó a sus usuarios que debían actualizar a la versión más reciente, después de actualizar se desplegaba una ventana con un texto donde se indicaban las nuevas políticas de privacidad y términos y condiciones que regirían el uso de la app a partir del 8 de febrero del presente año, incluyendo una casilla de aceptación, que al no ser marcada, no dejaba proceder. Cabe a resaltar que dichas actualizaciones no se aplicarán dentro de los países que conforman la unión europea, ya que este se circunscribe a una normatividad restrictiva respecto al tratamiento de datos en medios electrónicos, aplicando el Régimen General de Protección de Datos o por sus siglas en ingles GDPR (Reglamento 2016/679). La situación causo grandes dudas en los usuarios, ya que entre las nuevas políticas se expresaba que WhatsApp al ser propiedad de Facebook se aplicaban las políticas de privacidad de esta última, y por tanto podían recopilar información referente a mensajes enviados, contactos, archivos, historiales de pago entre otra información relevante para quienes usan la Plataforma. Lo preocupante de esta situación, es que la economía y minería de datos determina con base en la información proporcionada, los perfiles más íntimos del usuario, permitiendo que se le ofrezca contenido publicitario que se identifique con sus gustos, siendo una medida invasiva y desproporcional frente a los principios legales sobre la protección de datos personales. Ante este hecho desbordaron noticias y menciones en las redes sociales denunciando el abuso de WhatsApp en cuanto al tratamiento de la información. En Colombia, la Superintendencia de Industria y Comercio, desde su Delegatura para la protección de datos personales, tomó partido dentro de la coyuntura, formulando un requerimiento a WhatsApp, instando a entregar un informe detallado sobre las medidas de seguridad y el tipo de tratamiento que esta realizaba sobre los datos personales de los colombianos que poseen cuentas de usuario en dicho aplicativo, con la finalidad de verificar si cumplen la regulación de la Ley 1581 de 2012. ‘#SICSuper inició actuación administrativa para establecer si @WhatsApp cumple o no con la regulación colombiana relativa a la recolección y tratamiento de datos personales, para lo anterior envió un cuestionario el cual deberá ser respondido por esta empresa de tecnología’. – Superintendencia de Industria y Comercio, nota informativa a través de la red social twitter, 16 de enero de 2021 En cuanto a la comunicación de la SIC, el Superintendente precisa los adelantos que ha tenido Colombia referente a las nuevas facetas de este derecho fundamental, “Los datos personales son un activo digital de los negocios pero también son un derecho de las personas. En las dos discusiones que ha habido en el mundo, los gigantes de tecnología siempre buscaron invisibilizar el valor que eso tiene porque siempre se confundió con algo que era un tema de información.” (…) “La Unión Europea lo que hizo fue avanzar y ser muy exigente en protección de datos, no solamente para proteger un derecho fundamental, sino porque con los derivados de esos datos se pueden construir muchas más situaciones, por ejemplo, temas que afectan al consumidor y a la competencia y de allí la gran discusión actual. Las plataformas per se han sido objeto de investigaciones de las autoridades de competencia porque los datos son un activo digital de ese negocio, pero además de eso generan unas externalidades en muchas otras líneas: la protección del consumidor digital, y cómo se comportan esas plataformas en el mercado.” – Andrés Barreto, superintendente de Industria y Comercio, Entrevista – Revista Semana, 18 de Enero de 2021. https://cutt.ly/bkeYgfU En el entretanto, WhatsApp realizó un comunicado público donde se anunciaba la extensión del término de actualización hasta el 15 de mayo de 2021, para permitir explicar a los usuarios las nuevas reformas y evitar confusiones sobre el cambio. “Con esta actualización, nada de eso cambió. La actualización incluye nuevas opciones para las personas que compartan mensajes con empresas en WhatsApp, y proporciona una mayor transparencia con respecto a la forma en que recopilamos y usamos los datos. Si bien hoy en día no todos los usuarios realizan compras a empresas en WhatsApp, consideramos que cada vez más personas elegirán hacerlo en el futuro, por lo que es importante que conozcan bien los servicios. La actualización no expande nuestra capacidad de compartir datos con Facebook” (…) “En este momento, posponemos la fecha en que se les pedirá a los usuarios que revisen y acepten las Condiciones. No se suspenderá ni eliminará ninguna cuenta el 8 de febrero. Además, tomaremos una serie de medidas para aclarar la desinformación con respecto a la forma en que funcionan la privacidad y la seguridad en WhatsApp. Luego, pediremos gradualmente a los usuarios que revisen la política a su propio ritmo antes de que se habiliten las nuevas opciones para empresas el 15 de mayo.” – Blog de WhatsApp, 15 de enero de 2021 https://blog.whatsapp.com/ De igual manera, este tiempo será prudencial para adaptar aquellas condiciones difusas ante posibles escenarios sancionatorios por parte de las entidades que regulan la protección de datos personales en los países donde funciona esta red social. Todo lo anterior, en definitiva, pone de presente el avance en la concientización de los usuarios respecto de la información que entrega y la expectativa razonable al recibir servicios de empresas que se lucran con sus datos. Asistimos poco a poco a la comoditización de la privacidad y auguramos que pronto nuestros datos serán, en realidad, moneda de intercambio.

LEER MÁS

Acceso Panel

Accede al administrador de la web