Seguridad Digital: Riesgos de las Nuevas Tecnologías, Universidad de Diseño

Documento de Universidad de Diseño, Innovación y Tecnología sobre Seguridad Digital Unidad Didáctica 3: Riesgos de las Nuevas Tecnologías. El Pdf explora la inteligencia artificial generativa como herramienta de fraude, la seguridad en dispositivos IoT, la gestión de incidentes informáticos y las adicciones tecnológicas en el ámbito de la Informática.

Ver más

21 páginas

SEGURIDAD
DIGITAL
Unidad didáctica 3:
Riesgos de las
nuevas tecnologías
Curso Académico 2024/2025
CONTENIDOS DE LA UNIDAD
1. La inteligencia artificial generativa como herramienta del fraude ........ 3
1.1 Alterando la realidad con IA: deepfakes ........................................................ 6
2. Seguridad en dispositivos IoT ............................................................... 10
3. Gestión y respuesta a incidentes informáticos .................................... 12
4. Tecnología y adicciones ......................................................................... 15
5. Referencias .............................................................................................. 20

Visualiza gratis el PDF completo

Regístrate para acceder al documento completo y transformarlo con la IA.

Vista previa

```html

Introducción a la inteligencia artificial generativa y su uso fraudulento

La inteligencia artificial generativa, comúnmente denominada simplemente IA, es una rama de la inteligencia artificial que utiliza técnicas de aprendizaje automático para generar contenido -texto, audio, imágenes o vídeos- similares a los producirían humanos gracias a modelos, entrenados a partir de grandes cantidades de datos para replicar patrones, estructuras y estilos humanos en sus producciones (Goodfellow et al., 2014; OpenAI) a partir de una entrada de datos1, normalmente a través de comandos introducidos en lenguaje natural por una persona, como pudiera ser «Genera la imagen de una playa idílica». Genera la imagen de una playa idílica Imagen creada Ilustración 1 Esta playa no existe en ningún lugar del mundo Estos modelos son sistemas matemáticos que aplican técnicas del aprendizaje automático -machine learning- para entrenarse analizando una ingente cantidad de ejemplos hasta detectar patrones: por ejemplo, qué palabras suelen seguir a otras en los textos de un idioma. Con estos patrones acumulados, la IA no memoriza, sino que aprende a predecir qué puede venir después: la IA tampoco es comprensiva, sabe, pero no conoce el «significado» real de lo que genera. Algunos de los modelos más conocidos son GPT2, DALL-E3, Midjourney o Stable Diffusion. Estos modelos forman parte de una categoría más amplia conocida como modelos fundacionales, sistemas de IA entrenados con grandes volúmenes de datos para realizar múltiples tareas. Entre ellos suele mencionarse a los LLM -Large Language Models-, una subcategoría especializada en procesar y generar texto en lenguaje natural, como GPT de OpenAI, pero también PaLM de Google o LLAMA de Meta. Algunos modelos actuales, como GPT-4o, generan imágenes y audio además de texto. A estos modelos se les denomina multimodales, aunque su base linguística sigue siendo un LLM. La inteligencia artificial encuentra su origen en uno de los padres de la computación, Alan 1 Lo que se conce habitualmente como prompt, término prestado del inglés. 2 Generative Pretrained Transformer, desarrollado por OpenAI. 3 DALL-E, de OpenAI, debe su nombre a la homofonía con el nombre de Salvador Dalí y WALL-E, el robot abandonado en la tierra de la película del mismo nombre.UCIT UNIVERSIDAD DE DISEÑO, INNOVACIÓN Y TECNOLOGÍA Turing, quien en su artículo académico Computing Machinery and Intelligence plantea la cuestión si los ordenadores, como máquinas lógicas, podrían ser capaces de pensar e introduce el test de Turing. Ante las consideraciones filosóficas y prácticas del término pensar, Turing plantea la cuestión como un problema de comportamiento observable: ¿puede una máquina imitar el comportamiento humano hasta el punto de que una persona -el juez o árbitro del test- no pueda distinguirla de una persona real a través de una conversación escrita? El test de Turing ha supuesto, desde su planteamiento, una referencia clave para evaluar el comportamiento de sistemas de inteligencia artificial y de su discusión se siguen extrayendo conclusiones. Ya en 1950 Turing anticipaba las importantes objeciones que traería el uso de máquinas para tareas creativas que se han reavivado con el auge de la IA generativa. En 1951, Marvin Minsky y Dean Edmunds construirían la primera red neuronal, SNARC, siguiendo el paradigma inicial de la inteligencia artificial de codificar el conocimiento humano a través del razonamiento simbólico y la lógica. Las redes neuronales son modelos matemáticos donde cada nodo -neurona- realiza cálculos simples y el resultado depende de la suma ponderada de sus entradas, ponderación que ajusta a través de su entrenamiento. La red puede comenzar con pesos aleatorios y produciendo resultados erróneos, pero por repetición, la red «aprende» a ajustar su ponderación para producir predicciones cada vez más exactas. En 1955 nacería el término «inteligencia artificial», cuñado por John McCarthy, Minsky y Claude Shannon en un seminario que se considera dio origen a la disciplina. Arthur Samuel, en 1959, da origen al concepto de aprendizaje automático al demostrar que un programa puede, además de seguir unas normas predefinidas, «aprender» de la experiencia y mejorar a las damas. El debate nunca ha abandonado el campo de la IA: el chatbot ELIZA, diseñado en los años 60 para simular una conversación terapéutica, sorprendió por su aparente capacidad de comprensión emocional y suscitó el intenso debate sobre las implicaciones psicológicas y éticas de la IA que todavía prevalecen. El desarrollo de la inteligencia artificial fue lento, limitado por la escasa potencia de cálculo de las computadoras, y pasando épocas de escaso progreso relativo -inviernos, como se les denomina en la literatura académica-, viendo renovado el interés general al alcanzar algún hito notable para el público y luego para volver a su relativa oscuridad como disciplina casi académica. No sería hasta finales de la década de los 90 cuando las aplicaciones prácticas de la inteligencia artificial comienzan a adquirir relevancia, debido principalmente al aumento de la capacidad de cálculo, almacenamiento e interconexión de los ordenadores. the remal Ilustración 2 En 1997, el gran maestro Garri Kasparov jugó la segunda serie de partidas contra Deep Blue,UCIT UNIVERSIDAD DE DISEÑO, INNOVACIÓN Y TECNOLOGÍA una computadora entrenada y construida exprofeso por IBM para jugar al ajedrez. Ganó la primera serie, pero perdió 31/2 a 21/2 en la segunda. Los humanos jamás recuperarían la ventaja ante las computadoras En 2014, Ian Goodfellow y otros presentan las redes generativas adversativas o GANs, por sus siglas en inglés. Constituyen una clase propia de algoritmos de inteligencia artificial, utilizadas en aprendizaje no supervisado, donde dos redes neuronales compiten, generando una de ellas un candidato para el resultado, la red generativa, y evaluándolos la otra, la red discriminativa. Grosso modo, el objetivo del aprendizaje es engañar a la red discriminativa, haciéndole creer que un resultado sintético es real, evocando el espíritu del test de Turing visto anteriormente. Imagenes Reales Red Clasificadora X Ruido de Entrada Red Generada Imagen Generada Ilustración 3 Esquema de funcionamiento de una GAN Esta fue la innovación que ha permitido la explosión reciente de los modelos de IA generativa junto con los transformadores -transformers-, la arquitectura de IA que permite a un modelo «prestar atención» a ciertas partes de la entrada de datos según su contexto, mecanismo conocido como la auto-atención. Estos avances han permitido desarrollar modelos generativos a gran escala capaces de analizar el contexto previo de una conversación y generar contenido sintético muy exacto al humano. Las primeras experiencias de IA generativa en el ámbito educativo se han centrado en la construcción de espacios de tutoría virtual, así como en herramientas generadoras de contenido didáctico. Se prevé que la influencia de la IA no dejará de aumentar en diversos campos del conocimiento y procesos habituales de la sociedad, pero en pocos será tan difícil de predecir el verdadero alcance de su impacto como en la educación y la docencia, incluso hay quien predice un posible rol futuro del docente como supervisor y evaluador de contenidos generados automáticamente por sus alumnos (Giannini, 2023; World Economic Forum, 2023). Tampoco se pueden ignorar las advertencias que suscita la IA, como los riesgos de dependencia tecnológica, pérdida de capacidades críticas y reducción de habilidades creativas de no implementarse adecuadamente al aula (Holmes et al., 2019). Algunos países ya han comenzado a legislar sobre la IA, como es el caso del Reglamento de la Unión Europea sobre Inteligencia Artificial4, que trata de garantizar que los sistemas de inteligencia artificial se utilicen y desarrollen de forma responsable. En este reglamento se considera, entre otros, a los centros docentes responsables del uso de IA y se obliga a promover la formación y capacidad crítica en el uso de estos sistemas. Sin embargo, la legislación todavía no parece responder directamente a una de las cuestiones más 4 Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.UCIT UNIVERSIDAD DE DISEÑO, INNOVACIÓN Y TECNOLOGÍA espinosas de los modelos generativos: la propiedad intelectual y los derechos de autor. Desde el punto de vista de los derechos, existen dos posturas contrapuestas: una que considera que las creaciones generadas por IA, o al menos las que cumplan determinadas condiciones, deberían ser protegidas como obras originales y otra que argumenta que estas producciones carecen del elemento de la originalidad, por lo que no serían de aplicación los derechos de autor ni la propiedad intelectual. Más preocupante para muchas industrias es el origen de los datos con los que se entrena a los modelos generativos. Como parte de la apertura de un sumario judicial en 2025, se conoció que Meta, la megacorporación que alberga entre otras plataformas a Facebook, Instagram y WhatsApp, habría utilizado 7,5 millones libros de la base de datos de Library Genesis, a su vez un polémico portal pirata que distribuye publicaciones sin respetar sus derechos de autor. A esta revelación se le unen investigaciones como la que publicó el diario New York Times (Metz & McMillan, 2024), donde se profundiza en el uso masivo de obras con derechos de autor para entrenar modelos de IA. Así, han aparecido movimientos sociales y profesionales extremadamente críticos con el uso generalista de las herramientas de IA generativa no ya relativo a las infracciones de derechos de autor, sino con el uso indebido de datos de carácter personal, la propagación de desinformación y el impacto negativo que podrá tener en el mercado laboral.

Alteración de la realidad mediante IA: deepfakes

La IA generativa ha facilitado enormemente la creación de contenidos falsificados con un nivel de realismo difícil de imaginar hace unos años. Todavía son relativamente fáciles de detectar por un ojo experto, pero el verdadero desafío vendrá cuando en un futuro que parece muy cercano el operador humano no sea capaz de distinguir el contenido sintético del real, creando amenazas significativas para la integridad informativa, la privacidad personal y la seguridad pública y jurídica (Chesney & Citron, 2019). A los contenidos audiovisuales generados por IA con el propósito de simular de forma realista eventos, situaciones, personas y voces que no han ocurrido en realidad se les denomina deepfakes5. 5 Término que encuentra su origen en un hilo de Reddit de 2017 y posterior comunidad /r/deepfakes. En español, la RAE propone «ultrafalso».

```

¿Non has encontrado lo que buscabas?

Explora otros temas en la Algor library o crea directamente tus materiales con la IA.