- Aixelerator
- Posts
- PhotoGuard: La Nueva IA que te protege contra las IA
PhotoGuard: La Nueva IA que te protege contra las IA
Nos encontramos en una nueva era en la que las tecnologías impulsadas por la inteligencia artificial pueden crear y manipular imágenes con una precisión que difumina la línea entre la realidad y la fabricación. Sin embargo, el abuso de estas tecnologías plantea un problema significativo.
Lo más Nuevo
PhotoGuard: La Nueva IA que te protege contra las IA

Nos encontramos en una nueva era en la que las tecnologías impulsadas por la inteligencia artificial pueden crear y manipular imágenes con una precisión que difumina la línea entre la realidad y la fabricación. Sin embargo, el abuso de estas tecnologías plantea un problema significativo. Advanced generative models como DALL-E y Midjourney han facilitado la producción de imágenes hiperrealistas a partir de simples descripciones de texto, lo que ha reducido las barreras de entrada y permitido que incluso usuarios inexpertos generen y manipulen imágenes de alta calidad.
Para abordar este desafío, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT han desarrollado una técnica llamada "PhotoGuard", que utiliza perturbaciones en los valores de píxeles de una imagen para interrumpir eficazmente la capacidad del modelo de IA para manipularla. PhotoGuard utiliza dos métodos de ataque diferentes para generar estas perturbaciones.
El primer método, llamado "ataque de codificador", se dirige a la representación latente de la imagen en el modelo de IA, introduciendo ajustes mínimos en esta representación matemática para que el modelo perciba la imagen como una entidad aleatoria. Como resultado, cualquier intento de manipulación de la imagen mediante el uso del modelo se vuelve casi imposible. Estos cambios introducidos son tan pequeños que son invisibles al ojo humano, preservando así la integridad visual de la imagen mientras se asegura su protección.
El segundo método, llamado "ataque de difusión" es más sofisticado y persigue el objetivo de hacer que la imagen generada se asemeje lo más posible a una imagen objetivo predefinida. Para ello, se crean perturbaciones en el espacio de entrada de la imagen original y se aplican durante la etapa de inferencia, ofreciendo así una defensa robusta contra la manipulación no autorizada.
Es importante destacar que PhotoGuard no es una solución perfecta. Una vez que una imagen está en línea, las personas con intenciones maliciosas podrían intentar revertir las medidas protectoras aplicando ruido, recortando o girando la imagen. Sin embargo, se pueden utilizar técnicas previas de ejemplo adversario para implementar perturbaciones robustas que resistan las manipulaciones comunes de imágenes.
La implementación efectiva de PhotoGuard requiere una respuesta integrada de todos los actores involucrados en la lucha contra la manipulación de imágenes. Los creadores de modelos de edición de imágenes son aliados clave en este esfuerzo, y se sugiere que los responsables de formular políticas consideren implementar regulaciones que exijan a las empresas proteger los datos de los usuarios contra este tipo de manipulaciones. Además, los desarrolladores de estos modelos de IA podrían diseñar interfaces de programación de aplicaciones (API) que agreguen automáticamente perturbaciones a las imágenes de los usuarios, brindando una capa adicional de protección contra ediciones no autorizadas.
En resumen, PhotoGuard es una técnica prometedora para proteger las imágenes contra la manipulación no autorizada por modelos de IA. Sin embargo, se requiere una colaboración continua entre los desarrolladores de modelos, las plataformas de redes sociales y los responsables de formular políticas para lograr una defensa robusta contra la manipulación de imágenes. A medida que avanzamos hacia esta nueva era de modelos generativos, es fundamental buscar el equilibrio entre el potencial y la protección.
Avances y Desarrollo
La IA podría facilitar la detección de más de 22 tipos de cáncer

Investigadores del MIT y del Instituto del Cáncer Dana-Farber han desarrollado un nuevo enfoque que podría facilitar la identificación de la ubicación de los cánceres de origen desconocido en ciertos pacientes. Utilizando el aprendizaje automático, crearon un modelo informático que analiza la secuencia de alrededor de 400 genes y utiliza esa información para predecir dónde se originó un determinado tumor en el cuerpo.
Utilizando este modelo, los investigadores demostraron que podían clasificar con precisión al menos el 40 por ciento de los tumores de origen desconocido con alta confianza, en un conjunto de datos de aproximadamente 900 pacientes. Este enfoque permitió un aumento de 2.2 veces en el número de pacientes que podrían haber sido elegibles para un tratamiento dirigido genómicamente, basado en el origen de su cáncer.
El uso de este modelo podría ayudar a los médicos a tomar decisiones de tratamiento personalizadas para pacientes con cánceres de origen primario desconocido, lo cual es un hallazgo importante en esta investigación. Los tratamientos específicos para ciertos tipos de cáncer suelen ser más efectivos y tener menos efectos secundarios que los tratamientos utilizados para una amplia gama de cánceres.
Cuando los oncólogos no pueden determinar fácilmente el origen del cáncer en pacientes con tumores metastásicos o en un 3 a un 5 por ciento de los pacientes con cáncer, se clasifican como cánceres de origen primario desconocido (CUP). Esto limita las opciones de tratamiento, ya que la mayoría de los medicamentos están aprobados de manera específica para tipos de cáncer conocidos.
En este estudio, los investigadores utilizaron datos genéticos rutinariamente recolectados en Dana-Farber para predecir el tipo de cáncer. Entrenaron un modelo de aprendizaje automático con datos de casi 30,000 pacientes diagnosticados con uno de los 22 tipos de cáncer conocidos. Luego probaron el modelo en alrededor de 7,000 tumores y pudieron predecir su origen con aproximadamente un 80 por ciento de precisión, y un 95 por ciento de precisión para tumores con predicciones de alta confianza.
En el caso de los tumores de origen desconocido, el modelo pudo hacer predicciones de alta confianza para el 40 por ciento de ellos. Estas predicciones fueron respaldadas por análisis de mutaciones heredadas que pueden revelar predisposición genética a ciertos tipos de cáncer.
El estudio también mostró que las predicciones del modelo se correlacionaban con las tasas de supervivencia esperadas para los diferentes tipos de cáncer. Además, señaló que los pacientes que recibieron un tratamiento consistente con el tipo de cáncer predicho por el modelo tuvieron mejores resultados que aquellos que recibieron un tratamiento típicamente utilizado para otro tipo de cáncer.
Este enfoque tiene el potencial de aumentar significativamente la cantidad de pacientes que podrían recibir un tratamiento más preciso y personalizado, en lugar de recibir tratamientos más generales con quimioterapia. Además, los investigadores esperan expandir su modelo para incluir otros tipos de datos, como imágenes de patología y radiología, para proporcionar predicciones más completas y perspectivas sobre los tumores y los tratamientos más óptimos.
Top Trending
Carrera armamentística: Las IA y su impacto en las guerras

En los últimos meses ha habido una verdadera carrera armamentística de inteligencia artificial, con herramientas como ChatGPT, Midjourney, Stable Diffusion, Copilot, Dall-E y Bard de Google compitiendo por usuarios. A medida que más empresas invierten en IA generativa, necesitan mucha información para entrenar sus modelos. Y esa información debe ser generada por personas reales para que la IA generativa parezca, bueno, humana. Plataformas como Reddit y X son minas de oro porque albergan millones de ejemplos de contenido generado por usuarios. Ambas empresas también han puesto históricamente su información a disposición de desarrolladores y investigadores externos, lo cual es una ventaja. Solo en 2020, los datos de X contribuyeron a más de 17,000 artículos de investigación. Modelos como ChatGPT y Bard también se entrenaron con datos de estas plataformas. Pero esto ha generado preguntas más grandes sobre cuánto vale la información generada por los usuarios y cuánto debería costar acceder a ella. Ahora, es posible que esa información no esté disponible por mucho tiempo, justo cuando todas las empresas, incluida Meta, se apresuran a desarrollar sus propios modelos.
A principios de este año, Musk anunció que X comenzaría a cobrar $42,000 al mes por su API, excluyendo a casi todos los que la usaban, especialmente académicos e investigadores que dependían de los datos de X para investigaciones sobre temas como la desinformación. Más tarde, la compañía anunció que ofrecería niveles de acceso con precios de $125,000 y $210,000 por mes. Poco después, Reddit también anunció que comenzaría a cobrar por su API. En una entrevista con The New York Times, el CEO de Reddit, Reed Huffman, reconoció que el "corpus de información de Reddit es realmente valioso" para entrenar modelos de IA, pero la compañía no sentía la "necesidad de darle todo ese valor a algunas de las empresas más grandes del mundo de forma gratuita".
En los últimos meses, Musk ha continuado limitando el acceso a los datos de X. En abril, tuiteó que Microsoft había "utilizado ilegalmente" datos de X para entrenar sus modelos de IA (Microsoft es socio de Meta y OpenAI, creador de ChatGPT). Una carta del abogado de X alegó que la compañía había excedido el uso permitido de los datos obtenidos de la plataforma. Luego, el mes pasado, Twitter anunció que restringiría la capacidad de ver el contenido del sitio sin iniciar sesión y que para ver más de 600 tweets al día, los usuarios tendrían que pagar por Twitter Blue. Musk lo llamó una "medida de emergencia temporal" para evitar lo que él llamó "saqueo de datos". (XCorp, propietaria de X, presentó una demanda poco después contra cuatro demandados no identificados, buscando $1 millón en daños por "raspado" de datos). A medida que Musk limitaba el acceso a la plataforma, también lanzó su nueva startup de IA, xAI, que se entrenará con datos de X.
¿Qué tiene que ver todo esto con Threads? Meta, que apostó su futuro, y su nombre, en el metaverso, se ha quedado rezagada en su inversión en IA. Pero la semana pasada, la compañía anunció que su modelo de lenguaje grande, Llama 2, sería de código abierto, gratuito tanto para investigadores como para empresas (esto también significa, sin embargo, que no tendrá algunas de las protecciones de ChatGPT, como la capacidad de revocar el acceso a usuarios que violen los términos de uso y generen, por ejemplo, desinformación). Threads podría impulsar sus esfuerzos para volver al juego de la IA, justo cuando X ya no es una opción para las empresas que buscan obtener datos.
Herramienta de IA del Día
¡Compose AI. compone textos de una forma rápida y eficiente!

Compose AI es una herramienta de inteligencia artificial gratuita que tiene como objetivo facilitar la escritura de contenido. Proporciona una colección de herramientas de IA en el navegador que se ajustan al contexto y ofrecen sugerencias personalizadas según el tipo de contenido que se está escribiendo. Aunque existe una versión premium con funciones más avanzadas, la versión gratuita es suficiente para utilizar las capacidades de composición de texto. A diferencia de DALL·E u otros AI similares, Compose AI se centra exclusivamente en el manejo de texto. Al igual que otros sistemas de IA, Compose AI mejora con el tiempo y aprende el estilo del usuario para ofrecer un mejor rendimiento.
Descubre cómo convertir tus ideas y plasmarlas en texto de una forma sencilla con Compose.ai, échale un vistazo: https://www.compose.ai
No tengas pena alguna en Responder los Emails y dejarnos Feedback sobre las noticias, nos encatará saber tu opinon.
EVITA QUE NUESTROS MENSAJES CAIGAN EN SPAM AÑADIENDO NUESTRA DIRECCIÓN DE CORREO.
Ten un gran día, de parte de el equipo de Aixelerator.