Latinoamérica. La realidad aumentada y el metaverso ofrecen grandes oportunidades, pero también plantean serios desafíos en términos de privacidad y seguridad.
Ruth Almaraz Palmero, profesora de OBS Business School, institución perteneciente a Planeta Formación y Universidades, afirma que el uso de tecnologías como la inteligencia artificial (IA) en estos entornos expone a los usuarios a riesgos constantes, como la vigilancia masiva, el fraude y la manipulación de datos.
La realidad aumentada se ha convertido en una nueva puerta de interacción, comercio y entretenimiento que combina los elementos físicos y tangibles con los virtuales. “Es aquella tecnología que permite agregar información adicional a una imagen del mundo real cuando ésta se visualiza a través de un dispositivo. Este dispositivo agrega información extra a la que ya ofrece la imagen real, ofreciendo así una realidad transforma” afirma Almaraz.
Almaraz expone que “en el metaverso, el usuario experimenta eventos en el mundo virtual como si fueran reales y se enfrenta a todo tipo de riesgos para su privacidad. Por ejemplo, la vigilancia masiva, la discriminación, la pérdida de autonomía, el fraude o la suplantación de identidad. Los datos personales pueden estar en peligro a través de las vulnerabilidades de los dispositivos wearables” y añade, “también el propio entorno virtual podría suponer riesgos físicos reales para la salud de los usuarios. Desde el punto de vista de la privacidad, el uso del metaverso puede ser muy intrusivo, ya que el conjunto de datos que se tratan aumenta de forma exponencial”.
IA y el reto de salvaguardar la privacidad
Uno de los mayores peligros percibidos en la realidad aumentada se relaciona con la privacidad. Según la experta de OBS, “los sistemas de inteligencia artificial necesitan muchos datos. De hecho, los mejores servicios y productos en línea no podrían funcionar sin los datos personales utilizados para entrenar sus algoritmos de inteligencia artificial. Sin embargo, hay muchas maneras de mejorar la adquisición y el uso de la información, incluidos los propios algoritmos y la gestión general de los datos”.
La realidad aumentada genera dudas y falta de confianza ya que es un dominio relativamente nuevo y los mecanismos de transmisión de contenido autenticado siguen evolucionando, hoy en día, aunque un 85% de las personas cree en los beneficios de la IA, un 61% expresa desconfianza hacia estos sistemas según el estudio Privacy in a New World of AI.
Otro punto fundamental de esta falta de privacidad y regulación, es que hackers sofisticados podrían sustituir la realidad aumentada de un usuario con una propia a fin de engañar a la gente o proporcionar información falsa. Varias ciberamenazas pueden hacer que el contenido deje de ser confiable incluso si la fuente es auténtica si hay suplantación, espionaje o manipulación de datos.
Panorama de ciberdelitos relacionadas con IA en Colombia
En Colombia, se ha observado un aumento en el uso de técnicas avanzadas por parte de ciberdelincuentes. Estos utilizan IA para crear ataques más personalizados y difíciles de detectar. Actualmente los ciberdelincuentes están usando en su mayoría estos dos tipos de estafas en línea:
● Phishing Avanzado: Utilizando IA para personalizar correos electrónicos y mensajes que parecen legítimos, lo que aumenta las posibilidades de que las víctimas caigan en la trampa.
● Deepfakes: La creación de vídeos o audios falsos que pueden ser utilizados para engañar a personas o empresas.
Normatividad y estrategias en Colombia para regular la IA
El Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia (MinTIC) está llevando a cabo diferentes estrategias para minimizar el impacto de la IA en la privacidad de los ciudadanos, por medio de los siguientes puntos:
● Adopción de Recomendaciones de la UNESCO: Colombia ha sido pionera en la implementación de un marco ético para la IA, adoptando recomendaciones de la UNESCO que promueven principios como la transparencia, privacidad, y responsabilidad en el uso de tecnologías de IA. Este marco busca asegurar que las decisiones automatizadas respeten los derechos humanos y no discriminen a los ciudadanos según el Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia (MinTIC).
● Ley de Protección de Datos Personales: La legislación colombiana establece obligaciones claras para el tratamiento de datos personales, lo que incluye el uso de IA. Esta ley exige que los responsables del tratamiento implementen medidas para evitar sesgos algorítmicos y garantizar el respeto a los derechos de los individuos.
Estrategias de Prevención
● Monitoreo y Auditorías: Se están realizando auditorías periódicas y evaluaciones de seguridad para garantizar el cumplimiento de las normativas sobre protección de datos y prevenir el uso indebido de tecnologías basadas en IA.
● Educación y Conciencia Pública: El gobierno está promoviendo campañas educativas para informar a los ciudadanos sobre los riesgos asociados con la IA y las estafas digitales, ayudando a crear una cultura de precaución y conocimiento sobre cómo identificar posibles fraudes.
● Desarrollo de Plataformas Seguras: Iniciativas como el Data Sandbox permiten a las entidades gubernamentales y privadas desarrollar proyectos piloto que integren IA y Big Data, asegurando que se implementen prácticas seguras desde el inicio.
Colombia también está buscando alinearse con estándares internacionales en materia de protección de datos y privacidad, lo que incluye la aplicación de regulaciones similares al GDPR europeo. La experta de OBS concluye que, “la protección de datos en el metaverso y los wearables debe seguir principios de minimización y transparencia, además, en el futuro, estas normas deberán alinearse con nuevas leyes como la Digital Services Act y la Data Act en la UE”.