Lo + Nuevo
Tag

Inteligencia Artificial

Browsing

Cripto Casino - Stake
Conoce Stake Cripto Casino

Microsoft ha anunciado que su confiable antivirus, Defender, protegerá a los usuarios de Windows 10 y Windows 11 contra esos molestos keyloggers. ¿Te suena? Esos programas sigilosos que intentan robar todo lo que escribes. Pues bien, el gigante tecnológico asegura que su software de seguridad ya está preparado para detectar y bloquear estos malwares, además de otro software malicioso que quiera echarle un vistazo a tus datos personales. Y lo mejor: la nueva versión de Microsoft Defender ahora cuenta con inteligencia artificial para detener el malware antes de que pueda hacer su trabajo sucio.

En un reciente comunicado en su blog, Microsoft explicó que la protección comienza desde el momento en que enciendes tu ordenador. Windows se vale de funciones de arranque seguro para verificar que el kernel y otros componentes del sistema no hayan sido alterados por algún hacker travieso. Así, el sistema evita que algún malware modifique la secuencia de arranque y haga de las suyas desde el principio.

Inteligencia Artificial al Rescate

La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos, según la propia empresa. ¡Sí, así de rápido! El software utiliza motores de detección que, o bien impiden la ejecución del malware a simple vista, o lo aíslan si logra colarse. ¿El resultado? La nueva versión de Defender es capaz de detener no solo keyloggers, sino también esos raspadores de pantalla que, además de registrar tus pulsaciones, se toman la libertad de grabar lo que ves en tu monitor. ¿Qué siguen? ¿Espiar tu cafetera inteligente?

¿Y si Deshabilitas el Antivirus? No te Preocupes

Incluso si eres uno de esos rebeldes que decide desactivar la protección en tiempo real (quizá para darle emoción a tu vida), Microsoft afirma que Defender aún bloqueará los keyloggers. Así que, aunque desactives el antivirus, tu teclado estará a salvo de miradas indiscretas.

La compañía puso algunos ejemplos de keyloggers que han sido bloqueados en Windows por defecto. El primero trató de hacer un reconocimiento antes de ejecutarse, como un ninja mal entrenado, pero fue detenido de inmediato. El segundo fue un poco más creativo y generó archivos adicionales con comportamientos sospechosos, pero también fue bloqueado antes de que lograra algo significativo. Finalmente, en el tercer caso, un usuario permitió la ejecución del keylogger con permisos de administrador (¡claro, porque todos necesitamos aventuras!), pero incluso con eso, el malware no pudo registrar las pulsaciones ni capturar la pantalla. Microsoft: 3, Keyloggers: 0.

Keyloggers: Esos Viejos Conocidos

Por si no lo sabías, los keyloggers son programas maliciosos diseñados para registrar las teclas que presionas en tu dispositivo. Se disfrazan de archivos inofensivos y capturan todo lo que escribes: desde tu nombre de usuario y contraseña, hasta esa búsqueda embarazosa en Google que preferirías olvidar.

Lo curioso es que los keyloggers no son algo nuevo; de hecho, tienen un pasado tan oscuro como la Guerra Fría. La primera evidencia de uno de estos bichos se remonta a los años 70, cuando la Unión Soviética desarrolló un dispositivo que podía registrar las pulsaciones en una máquina de escribir eléctrica. Este primer keylogger, conocido como Selectric, afectó a las máquinas IBM que se usaban en las embajadas de EE.UU. ¡Espionaje a la vieja usanza!

Con el tiempo, los keyloggers evolucionaron en variantes de software, como Ghost y Zeus, que hicieron de las suyas en la década de 2000. Estas versiones se centraron en atacar organizaciones financieras, aunque luego decidieron expandir su mercado y empezaron a robar contraseñas y datos de usuarios comunes. Muy inclusivo de su parte.

La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos.
La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos.

Un Ejemplo Memorables de Keyloggers

Uno de los incidentes más sonados ocurrió en 2015, cuando hackers escondieron un keylogger en un mod de GTA V llamado Angry Planes. Este mod hacía que los pilotos fueran más agresivos, pero en realidad lo agresivo era el software escondido, que registraba toda la actividad del usuario y enviaba los datos a sus creadores. Afortunadamente, un usuario con ojo de halcón en los foros de GTA descubrió el truco y desató el caos entre los jugadores.

Según Microsoft, este tipo de amenazas ya no tendrán cabida en Windows 10 y Windows 11, incluso si decides apagar el antivirus para instalar algún software pirata (sí, te estamos mirando a ti, que todavía usas cracks para la Adobe Creative Suite). Así que, si planeabas hacer algo travieso, mejor piénsalo dos veces.

Donaciones y Apoyo

Fuente (s) :

Una Falsa Identidad de Hollywood: La Estafa que Sufrió Katy a Manos de un Impostor Usando IA

Las redes sociales han sido un terreno fértil para las estafas desde hace tiempo, algunas más sorprendentes que otras. Un caso particularmente inesperado es el de Katy, una vecina de Barcelona, que se convirtió en víctima de una estafa que involucraba la suplantación de identidad de un famoso actor de Hollywood mediante el uso de herramientas avanzadas de inteligencia artificial.

Katy llegó a interactuar con el 'actor'. "Era su voz", afirma, aunque esta había sido generada mediante inteligencia artificial.

La Suplantación de Identidad

Katy llegó a interactuar con el ‘actor’. “Era su voz”, afirma, aunque esta había sido generada mediante inteligencia artificial.

Una Conversación Inocente que Se Torna Personal

Todo comenzó de manera inocente. Katy, admiradora del actor Keanu Reeves, decidió dejarle un comentario en TikTok elogiando su gusto musical. Para su sorpresa, el ‘actor’ respondió rápidamente, agradeciéndole y comenzando una conversación que pronto se volvió personal.

“No podía creer que me llamara, pero la voz era la suya y me hablaba en inglés”, relató Katy en el programa ‘En boca de todos’ de Cuatro. Más tarde se descubriría que, aunque la voz parecía auténtica, había sido generada mediante inteligencia artificial.

El impostor empezó a comentar todas las fotos de Katy en redes sociales y a mantener conversaciones diarias con ella. Para que Katy no sospechara, incluso justificó su relación pública con Alexandra Grant, asegurándole que solo era una exigencia de la industria del espectáculo.

Las Peticiones de Dinero Comienzan

La primera solicitud de dinero llegó con una excusa sorprendente: el falso Keanu necesitaba 5.000 euros para comprarse un ordenador con el que escribir el guion de ‘John Wick 5’. A partir de ahí, las peticiones se hicieron más frecuentes y cuantiosas.

Katy también relató su experiencia en el programa “Y ahora Sonsoles” de Antena 3: “Me pidió dinero para venir aquí, 60.000 euros de jet privado, luego me pidió 5.000 euros para un ordenador especial para crear sus guiones, John Wick 5, y para invertir en Bitcoin. Yo le había dado 450.000 y mi dinero nunca llegaba”.

En total, Katy realizó 16 transferencias bancarias, algunas de hasta 90.000 euros, alcanzando una suma de más de 700.000 euros. Solicitó préstamos tanto a su madre como al banco para seguir ayudando al supuesto Keanu Reeves, incluso vendió un piso.

Descubrimiento y Denuncia

Finalmente, las sospechas llevaron a Katy a cortar la comunicación y denunciar la estafa. No confía en recuperar todo el dinero perdido, a pesar de contar con información sobre las cuentas del estafador.

Uso de Voz Generada por IA

Katy explicó cómo su admiración por el actor se convirtió en una pesadilla cuando un hombre utilizó la imagen y la voz de Reeves, generada con IA, para engañarla y estafarle una gran suma de dinero. Mantenían conversaciones hasta con mensajes de audio en inglés, y Katy verificó varias veces que efectivamente se trataba de la voz del actor.

Estrategia del Estafador

Este falso Reeves comentaba todas sus fotos en redes sociales y chateaban a diario, creando una relación de confianza. Hablaron de música rock, motos, sus próximas películas y hasta justificó su relación con Alexandra Grant para que Katy no estuviera celosa. “Me pidió dinero para venir aquí, 60.000 euros de jet privado, luego me pidió 5.000 euros para un ordenador especial para crear sus guiones, John Wick 5, y para invertir en Bitcoin. Yo le había dado 450.000 y mi dinero nunca llegaba”, explicaba Katy.

Consecuencias Financieras

La situación se volvió crítica cuando Katy, sin sospechar la estafa, realizó 16 transferencias bancarias, endeudándose significativamente. Solicitó préstamos de su madre y del banco, e incluso vendió un piso para seguir ayudando al supuesto Keanu Reeves. Eventualmente, las sospechas la llevaron a cortar la comunicación y denunciar la situación, con la esperanza de recuperar al menos parte del dinero perdido. Katy dejó claro en el programa “Y ahora Sonsoles” que no fue una estafa amorosa, sino económica, y expresó su desconfianza en recuperar todo el dinero, aunque cuenta con detalles sobre las cuentas del estafador. Aprovechó la oportunidad para enviar un mensaje al auténtico Keanu Reeves.

Fuente (s):

Cripto Casino - Stake
Conoce Stake Cripto Casino

En la era digital, la seguridad cibernética se ha convertido en una preocupación primordial para empresas de todos los tamaños. La evolución constante de las tecnologías trae consigo nuevos riesgos y vulnerabilidades que pueden ser explotados por ciberdelincuentes. En este contexto, la inteligencia artificial (IA) emerge como una herramienta poderosa para reforzar la ciberseguridad y prevenir ataques. Este artículo explora cómo la IA está transformando la ciberseguridad y su impacto a lo largo del tiempo.

La Importancia de la Ciberseguridad en la Era Digital

La ciberseguridad es esencial para proteger los datos sensibles y la infraestructura digital de las organizaciones. Los ataques cibernéticos pueden tener consecuencias devastadoras, desde pérdidas financieras hasta daños a la reputación de la empresa. Con el aumento de la digitalización, la superficie de ataque se expande, haciendo que la protección de la información sea más compleja y desafiante.

 Con el aumento de la digitalización, la superficie de ataque se expande, haciendo que la protección de la información sea más compleja y desafiante.
Con el aumento de la digitalización, la superficie de ataque se expande, haciendo que la protección de la información sea más compleja y desafiante.

El Papel de la Inteligencia Artificial en la Ciberseguridad

Detección de Amenazas en Tiempo Real

Algoritmos avanzados de aprendizaje automático pueden identificar patrones anómalos que indican actividades sospechosas.
Algoritmos avanzados de aprendizaje automático pueden identificar patrones anómalos que indican actividades sospechosas.

Uno de los mayores desafíos en ciberseguridad es la detección temprana de amenazas. La IA, con su capacidad para analizar grandes volúmenes de datos en tiempo real, está revolucionando este aspecto. Algoritmos avanzados de aprendizaje automático pueden identificar patrones anómalos que indican actividades sospechosas. Esto permite a los equipos de seguridad responder de manera proactiva antes de que se produzcan daños significativos.

Análisis Predictivo

La IA no solo detecta amenazas actuales, sino que también predice posibles ataques futuros. Utilizando técnicas de análisis predictivo, los sistemas de IA pueden anticipar comportamientos maliciosos basados en datos históricos y tendencias emergentes. Esto es crucial para desarrollar estrategias preventivas y fortalecer las defensas cibernéticas.

Automatización de la Respuesta a Incidentes

La velocidad de respuesta es crítica en la ciberseguridad. Los sistemas de IA pueden automatizar la respuesta a incidentes, permitiendo una mitigación rápida y eficiente de las amenazas. Por ejemplo, pueden bloquear automáticamente el acceso a una red comprometida o aislar dispositivos infectados, minimizando el impacto de un ataque.

Casos de Uso de la IA en la Prevención de Hackeos

Empresas Financieras

Las instituciones financieras son un objetivo principal para los ciberdelincuentes debido a la naturaleza sensible de los datos que manejan. La IA se utiliza para monitorear transacciones en tiempo real y detectar fraudes. Algoritmos de aprendizaje profundo analizan patrones de comportamiento de los usuarios para identificar actividades inusuales y prevenir fraudes antes de que ocurran.

Sector Salud

 Los algoritmos de IA pueden detectar y bloquear intentos de acceso no autorizado, garantizando la confidencialidad y la integridad de la información médica.
Los algoritmos de IA pueden detectar y bloquear intentos de acceso no autorizado, garantizando la confidencialidad y la integridad de la información médica.

En el sector salud, la protección de los datos de los pacientes es crucial. La IA ayuda a proteger los sistemas de gestión de la salud y los registros médicos electrónicos. Los algoritmos de IA pueden detectar y bloquear intentos de acceso no autorizado, garantizando la confidencialidad y la integridad de la información médica.

Comercio Electrónico

Las plataformas de comercio electrónico manejan grandes volúmenes de datos de usuarios, incluidas informaciones financieras. La IA se utiliza para proteger estos datos mediante la detección de patrones de fraude y la implementación de medidas de seguridad avanzadas. Los sistemas de recomendación basados en IA también mejoran la experiencia del usuario, aumentando la satisfacción del cliente y la seguridad.

Retos y Consideraciones Éticas

Falsos Positivos y Negativos

Aunque la IA ha demostrado ser efectiva en la ciberseguridad, no está exenta de desafíos. Uno de los principales problemas es la generación de falsos positivos y negativos. Un falso positivo ocurre cuando el sistema identifica erróneamente una actividad legítima como una amenaza, mientras que un falso negativo es cuando no detecta una actividad maliciosa real. La calibración de los algoritmos para minimizar estos errores es un reto continuo.

Privacidad y Transparencia

El uso de IA en la ciberseguridad también plantea cuestiones de privacidad y transparencia. Los sistemas de IA requieren acceso a grandes cantidades de datos para funcionar eficazmente, lo que puede comprometer la privacidad de los usuarios. Además, la naturaleza opaca de algunos algoritmos de IA puede dificultar la comprensión de cómo se toman las decisiones de seguridad. Es crucial abordar estas preocupaciones mediante políticas claras y tecnologías de IA explicables.

Impacto de la IA en la Ciberseguridad a lo Largo del Tiempo

Evolución Tecnológica

La IA ha evolucionado significativamente en los últimos años, mejorando su capacidad para enfrentar amenazas cibernéticas. Inicialmente, los sistemas de ciberseguridad se basaban en reglas predefinidas y firmas de malware conocidas. Con la introducción de la IA, se ha pasado a un enfoque más dinámico y adaptativo, capaz de aprender y evolucionar con el tiempo.

Futuro de la Ciberseguridad con IA

El futuro de la ciberseguridad está estrechamente ligado a la evolución de la IA. Se espera que los sistemas de IA se vuelvan aún más sofisticados, utilizando técnicas avanzadas como el aprendizaje profundo y las redes neuronales para detectar y prevenir amenazas. Además, la integración de IA con tecnologías emergentes como el blockchain podría ofrecer nuevas formas de proteger la información.

Científicos de Michigan Desarrollan IA que Traduce Ladridos de Perros

Un equipo de investigadores de la Universidad de Michigan ha presentado un algoritmo de inteligencia artificial (IA) capaz de traducir los ladridos de los perros. Aunque esta tecnología no permitirá tener conversaciones completas con nuestras mascotas, sí puede interpretar sus ladridos y comunicar sus emociones, como felicidad, tristeza o miedo. Aunque el número de palabras extraídas es limitado, la capacidad de identificar emociones hace que esta herramienta sea valiosa e intrigante.

Entrenamiento de la IA con Humanos y Perros

La IA logra traducir los ladridos después de un preentrenamiento con conversaciones humanas y vocalizaciones de perros, donde se provocaron emociones específicas. Es fundamental señalar que este estudio aún está pendiente de revisión por pares. Esto significa que, hasta que otros científicos validen los resultados, debemos ser cautelosos. Sin embargo, es emocionante pensar que en el futuro podríamos entender mejor a nuestros perros, aunque sea en un sentido emocional.

Comunicación Animal y Ciencia Ficción

La idea de comunicarse con animales a través de la IA puede parecer salida de una película de ciencia ficción. Un ejemplo popular es la serie SeaQuest, donde un delfín llamado Darwin podía comunicarse con los humanos mediante un algoritmo avanzado. Aunque la realidad aún no alcanza esa ficción, muchos científicos están explorando la posibilidad de usar la inteligencia artificial para entender a nuestras mascotas.

Desarrollando el Algoritmo

Para desarrollar su algoritmo, los científicos de Michigan trabajaron con 74 perros de diversas razas, aunque cerca de la mitad eran chihuahuas. Grabaron los sonidos de los perros en situaciones controladas que provocaban emociones específicas, como jugar con ellos o simular daños a sus dueños. De esta manera, identificaron 14 tipos diferentes de ladridos, gruñidos, aullidos y gemidos, cada uno con connotaciones emocionales positivas, negativas o neutras.

Lo más interesante es que el algoritmo se preentrenó con grabaciones de conversaciones humanas. Esto permitió a la IA relacionar mensajes humanos con vocalizaciones caninas. Después, se entrenó con los sonidos de perros grabados en la primera fase del estudio. Finalmente, introdujeron grabaciones aleatorias para verificar si la IA podía traducir los ladridos. Sorprendentemente, con el preentrenamiento humano, la IA alcanzó una tasa de éxito del 62.2 %, que en algunos casos específicos superaba el 90 %. Sin este preentrenamiento, la precisión era significativamente menor.

Identificación de Razas

Además de traducir los ladridos, el algoritmo logró identificar con un 75 % de precisión las razas de los perros, sugiriendo que cada raza tiene su propio “acento”. Aunque estos resultados aún deben ser validados por la revisión por pares, son lo suficientemente prometedores como para seguir investigando. Si se confirma su eficacia, esta IA podría representar una gran revolución en la comunicación entre humanos y sus mascotas.

Fuente (s) :

Cripto Casino - Stake
Conoce Stake Cripto Casino

El pasado mes de noviembre Elon Musk lanzaba Grok, una inteligencia artificial (IA) “rebelde e ingeniosa” integrada en X, red social conocida anteriormente como Twitter, y con la que busca desbancar a ChatGPT, de OpenAI. Un chatbot que será de código abierto esta misma semana, tal y como ha anunciado el propio magnate en una publicación emitida a las 9:41 hora de España peninsular del lunes 11 de marzo.

El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.
El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

  • El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

Una decisión Musk toma justo unos días después de que demandara a OpenAI -de la que fue cofundador- por su alianza con Microsoft y por “no beneficiar a la humanidad”. Y es que el multimillonario señala que la empresa de Sam Altman ha abandonado su misión original en favor de un modelo con ánimo de lucro. En varias ocasiones el magnate ha advertido del uso de la tecnología con fines lucrativos por parte de grandes compañías tecnológicas.

 “Esta semana, xAI abrirá el código de Grok”, ha indicado Elon Musk en una publicación en su cuenta personal de X. Por lo tanto, la empresa de inteligencia artificial del magnate va a liberar el código de su chatbot, aunque por el momento no se ha indicado en qué términos. Lo que sí se conoce es que esta decisión supone un gran salto en la política que había llevado hasta ahora con su IA.

 Al liberar el código de Grok, Musk podría dar al público acceso gratuito para que experimenten con el código detrás de su tecnología y alinea a xAI con firmas como Meta y la francesa Mistral, ambas con modelos de inteligencia artificial de código abierto. Incluso Google también ha lanzado Gemma, un modelo de IA más ligera que todo el mundo puede usar sin pagar y que los desarrolladores externos pueden adaptar a sus necesidades.

BingX exchange confiable de Criptomonedas

Esta medida no pilla de sorpresa, ya que el pasado mes de noviembre, durante un episodio de un pódcast, el magnate ya se mostró a favor del concepto de IA de código abierto: “El nombre, open en OpenAI, se supone que significa código abierto, y se creó como un código abierto sin ánimo de lucro. Y ahora es una fuente cerrada para obtener el máximo beneficio“.

Es cierto que la tecnología de código abierto puede ayudar a acelerar las innovaciones, sin embargo, algunos expertos han advertido de que los modelos de inteligencia artificial de código abierto podrían tener consecuencias, como señalan desde Reuters. Por ejemplo, los terroristas podrían acudir a ellas para crear armas químicas.

Igualmente, podría emplearse para desarrollar una superinteligencia consciente que se escape del control humano. El año pasado Elon Musk declaró en la Cumbre de Seguridad de la inteligencia artificial de Reino Unido que quería establecer un “árbitro externo” que pudiera supervisar a las empresas que desarrollan IA y dar la voz de alarma en caso de preocupación.

Fuente (s) :

Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

FraudGPT y WormGPT son dos modelos de que permiten crear scripts y correos maliciosos

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.

Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.

Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.

Los ciberatacantes ya no cometen faltas de ortografía. “Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos”, explica Fernando Anaya, de la firma de seguridad Proofpoint

Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: “FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto”.

Generar audio, imágenes y vídeos

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes usan la inteligencia artificial para sintetizar audio. “Estafas como las de “pig butchering” podrían pasar algún día de los mensajes a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, cuenta Anaya. Esta estafa, traducida al español como “carnicería de cerdos”, se llama así porque los atacantes ‘engordan’ a las víctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, también puede implicar otros intercambios financieros.

Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnología para engañar a funcionarios gubernamentales. Algo que muestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Realizan videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados con inteligencia artificial y otras técnicas para que las víctimas cuenten información o ridiculizarlas, subiendo la grabación después a redes sociales”, explica Anaya.

La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido”.

Fuente (s) :

BingX exchange confiable de Criptomonedas

 La inteligencia artificial, al tener tantos vertientes distintos, ha tocado muchos aspectos de la vida cotidiana. En los últimos años hemos visto en España imágenes tan distópicas como perros autónomos robot apoyando a policías e incluso deepfakes para resolver casos policiales. La última y más sorprendente implica a un departamento de policía que habría usado una muestra de ADN para emular el rostro de un sospechoso y para luego aplicarle reconocimiento facial.

  • Un departamento de policía de Estados Unidos tiene como fiables métodos no contrastados por la ciencia para sus investigaciones.

 Una historia que se puede leer en el portal Wiredy que relata cómo detectives del Departamento de Policía del Distrito de Parques Regionales de East Bay (California, Estados Unidos) habrían usado tecnologías de reconocimiento facial sobre un retrato generado a partir de una muestra de ADN. Una situación que podría ser el primer caso conocido de esta clase, y que entraña todo tipo de problemas en ámbitos éticos, morales y legales.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Esta fue una idea de los propios detectives que estaban trabajando en un caso de asesinato. La víctima se llamaba Maria Jane Weidhofer, la cual había sido encontrada en el Parque Regional Tiden de Berkeley (California) asesinada y con signos de abuso sexual. Un caso que data del año 1990 y que se ha intentado resolver en 2017 usando estas técnicas de reconocimiento facial.

Todo comienza en el departamento de Policía ya mencionado en el año 2017. El cuerpo envió una muestra de información genética basada en ADN a Parabon NanoLabs, una compañía que asegura que puede analizar este tipo de muestras para conseguir recrear en 3D el rostro de sus dueños. Al parecer, los detectives contaban con esta muestra recogida directamente del escenario del crimen donde Weidhofer fue asesinada.

Parabon NanoLabs realizó el correspondiente análisis del ADN proporcionado por los policías usando un modelo de aprendizaje automático patentado. La firma proporcionó al cuerpo el rostro del posible autor del crimen, o por lo menos, un sospechoso potencial. Dicha cara fue generada únicamente utilizando evidencias recogidas en la escena del crimen.

Hay que aclarar, tal y como apunta Wired, que dicho rostro no era ni mucho menos una fotografía. Lo que Parabon NanoLabs entregó a los detectives fue un Informe Instantáneo de Fenotipo, una representación en 3D hecha mediante el algoritmo de la compañía. Los rasgos físicos de esta cara habrían sido generados gracias a los atributos genéticos encontrados en la muestra de ADN, y el algoritmo se habría encargado de crearlos.

El rostro en cuestión era de un varón de piel clara, cabello y ojos castaños, frondosas cejas y sin pecas. Un forense especializado en arte dentro del departamento cambió la fotografía para añadirle un corte de pelo más habitual, propio de un hombre de la calle y le puso un bigote. Siempre usando la descripción que un testigo dio en la época.

En un primer momento, el departamento publicó la cara en un intento de conseguir un reconocimiento de algún ciudadano de los condados de Alameda y Contra Costa de California. No sirvió de nada, y el caso siguió estancado. No fue hasta 3 años después, en 2020, que el departamento (o más bien uno de los detectives) tomó la decisión de que pasaran esta imagen por un software de reconocimiento facial.

BingX exchange confiable de Criptomonedas

En una solicitud de “apoyo analítico” enviada al Centro Regional del Norte de California, dicho detective habló de la situación. “Utilizando el ADN encontrado en la escena del crimen, Parabon Labs reconstruyó los rasgos faciales de un posible sospechoso. […] Tengo una foto del posible sospechoso y me gustaría utilizar la tecnología de reconocimiento facial para identificar a un sospechoso”.

Lo más sorprendente del caso, que ya presenta muchas cuestiones a nivel ético, moral y legal, es que dicho movimiento no fue informado debidamente por el detective. Tanto es así, que este hecho fue sabido gracias a unos registros policiales hackeados por el colectivo Distributed Denial of Secrets. Este es un grupo whistleblower que tiene como principal objetivo que la información de interés público sea completamente accesible. Esta incluye filtraciones, información censurada, etcétera.

El Centro Regional de Inteligencia del Norte de California, que recibió la solicitud del detective, es un centro destinado a facilitar la colaboración entre las distintas autoridades federales que operan en el estado, incluyendo departamentos de policía a nivel local y estatal. No se sabe si atendió debidamente la solicitud del detective. Si bien hay indicios de que podrían haber realizado dicha búsqueda, ni el centro ni el departamento dieron declaraciones.

Todo esto parte de la base de que no existe evidencia científica clara que confirme que efectivamente los métodos de Parabon NanoLabs son confiables para recrear fielmente la cara de una persona mediante ADN. Esta es una compañía centrada específicamente en la genealogía genética forense, dedicada al apoyo a fuerzas de autoridad como el propio departamento mencionado anteriormente.

Queda la palabra de Parabon, que afirma que no solo pueden recrear el color del pelo o de los ojos, sino incluso la piel de una persona. También pueden recrear la forma general de sus caras, y los fenotipos generados por la empresa se usan como base para las representaciones faciales que Parabon acaba enviando a sus clientes. Su metodología no ha sido debidamente revisada por pares, quedando en entredicho su fiabilidad por parte de la comunidad científica.

La sorpresa llega cuando descubrimos que este servicio de recreación facial basada en ADN ha sido ampliamente usado por fuerzas del orden de Estados Unidos. Un servicio lanzado en 2015 y que 8 años después ha servido para generar “decenas de predicciones faciales”, según Wired. De hecho, el medio ha contactado con un buen número de departamentos y agentes que aseguran que esta opción es, como mínimo, digna de consideración.

Usando reconocimiento facial

¿Qué implica usar reconocimiento facial en este caso? Estos casos enlazan directamente a personas que de forma indirecta o directa podrían estar relacionados con estos crímenes, por lo que el uso de no una sino dos tecnologías distintas —una de ellas no verificada— es, como mínimo, cuestionable. Pero las voces contrarias han llegado incluso de la propia Parabon.

Y es que poco después de que se lanzara el servicio de predicción facial en 2015, se preguntó a la directora de bioinformática de Parabon NanoLabs Ellen Greytak sobre la posibilidad de probar herramientas de reconocimiento facial sobre estos rostros generados por fenotipos. Greytak declaró por aquel entonces que este “no es el propósito de las imágenes compuestas”.

Algunos miembros de distintos departamentos de policía de Estados Unidos han hablado sobre las implicaciones que estos métodos tendrían sobre una investigación. Haley Williams, Gerente de comunicaciones del Departamento de Policía de Boise en Idaho, explica que aunque la idea de usar reconocimiento facial con una cara generada por algoritmo dependería de cada caso, “nunca se basaría únicamente en una sola pieza de evidencia”. Solo se usaría “como una herramienta” para encontrar más pistas.

Por otro lado, las justificaciones de los departamentos para usar estos rostros generados por ADN varían. Mientras que algunos se limitan a decir que es una herramienta útil, otros defienden la precisión de estos rostros para el uso de software de reconocimiento facial. El ejemplo claro es el de Andrew Sullivan, sheriff del condado de DeKalb que declara que sí usarían esa información “para desarrollar cualquier pista que tuviéramos para resolver cualquier homicidio”.

La posibilidad de que existan falsos positivos y errores en ambos métodos no ha impedido que algunos detectives defiendan su uso en casos especialmente intrincados. Uno de ellos, anónimo, declara lo siguiente: “Sé que la cara de Parabon no es perfecta, pero ¿por qué no utilizaríamos todas las herramientas disponibles para intentar atrapar a un asesino”?. Y es que estos fenotipos se usan, usualmente, después de haber agotado todas las vías posibles a la hora de encontrar pistas.

Ya existen casos de personas que han sido acusadas por software de manera indebida. Fue el ejemplo de Robert Julian-Borchak Williams, un oficinista en una compañía de suministros automotrices, que en 2020 fue detenido en una investigación que involucró el uso de un algoritmo. El uso deficiente de reconocimiento facial y cuestiones relacionadas con el racismo le valió una falsa acusación, que se reflejó como un acto de abuso policial usando estos software como excusa.

Fuente (s) :

BingX exchange confiable de Criptomonedas

OpenAI actualizó la política de uso para suprimir la prohibición que impedía utilizar su tecnología en tareas “militares y de guerra”. La modificación abre la puerta para que las agencias y divisiones de seguridad utilicen los desarrollos de inteligencia artificial (IA) generativa de la compañía para optimizar sus operaciones.

La nueva política entró en vigor el pasado 10 enero. Antes de esta fecha, las normas de OpenAI calificaban la utilización de sistemas como ChatGPT y GPT-4 en la industria militar y bélica como una actividad de “alto riesgo físico”. La empresa dirigida por Sam Altman aclara que “existen casos de uso de seguridad nacional que se alinean con nuestra misión”.

La empresa dirigida por Sam Altman asegura que existen casos de uso que “se alinean con su misión”.

Sam Altman

La organización aún prohíbe el uso de sus algoritmos de IA para desarrollar armas, vigilar comunicaciones, destruir propiedad y crear cualquier clase de herramienta que produzca algún daño. Niko Feliz, vocero de OpenAI, explicó que el objetivo de la actualización de las políticas es “crear un conjunto de principios universales que sean fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir sistemas GPT personalizados”.

Cripto Casino - Stake
Conoce Stake Cripto Casino

La compañía informó que está trabajando con la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos para diseñar nuevas herramientas de ciberseguridad, y mejorar la protección del software que da soporte a la infraestructura de seguridad del país.

La actualización de las políticas de uso llegan en un momento en el que las fuerzas armadas de todo el mundo han mostrado sus intenciones por incorporar sistemas de inteligencia artificial y aprendizaje automático para optimizar sus estrategias militares. Estados Unidos destaca en la tendencia.

Kathleen Hicks, subsecretaria de defensa de Estados Unidos, dijo al cierre del año pasado que la IA es “una parte clave del enfoque de innovación integral y centrado en los combatientes” de la agencia. Advirtió que la mayoría de los sistemas inteligentes disponibles en el mercado “aún no están lo suficientemente maduros técnicamente para cumplir con nuestros principios éticos de IA”.

OpenAI quiere incursionar en un lucrativo y polémico mercado

OpenAI intenta explorar nuevas oportunidades de negocio alrededor de una industria millonaria. El gasto militar se elevó a 3.7% en 2022 para alcanzar los 2.24 billones de dólares. La cifra es equivalente al 2.2% del Producto Interno Bruto global, de acuerdo con estimaciones del Instituto Internacional de Investigaciones para la Paz de Estocolmo (SIPRI, por sus siglas en inglés). Estados Unidos es la nación que más recursos invierte en temas de defensa con un gasto calculado en 877,000 millones de dólares, tres veces más que la cantidad registrada en China, el segundo país que más dinero destina a tareas militares.

El uso de sistemas basados en inteligencia artificial dentro del sector militar ha despertado preocupación. En noviembre pasado, el Gobierno de Reino Unido publicó un informe en el que enlistó el desarrollo de armas biológicas mortales, ataques automatizados a la ciberseguridad y el diseño de potentes modelos de inteligencia artificial autónomos como principales riesgos del uso de la IA con fines bélicos y de defensa. Existen algunas propuestas que pretenden reducir estas amenazas.

Al cierre del año pasado, Kamala Harris, vicepresidenta de Estados Unidos, presentó una declaración firmada por 31 países que establece límites en el uso militar de la IA. Los firmantes se comprometieron a recurrir a revisiones jurídicas y capacitación para garantizar que la IA militar se ajuste a las leyes internacionales; a desarrollar la tecnología con cautela y transparencia, y a evitar sesgos involuntarios en los sistemas que la emplean. El acuerdo no es jurídicamente vinculante. No obstante, fue calificado como un gran avance para regular su implementación.

Sasha Baker, subsecretaria adjunta de Defensa para Políticas en Estados Unidos, afirmó que el convenio “hace avanzar las normas internacionales sobre el uso militar responsable de la IA y la autonomía, proporciona una base para construir un entendimiento común y crea una comunidad para que todos los Estados intercambien las mejores prácticas”.

El SIPRI proyecta que en 2028 el volumen del mercado asociado a soluciones de IA en el ámbito militar superará los 13,700 millones de dólares. Vincent Boulanin, investigador del instituto, advirtió que “no se trata de una sola tecnología, sino de una característica habilitadora. La IA permite añadir nuevas funciones a las herramientas de guerra para hacerlas potencialmente más eficientes, más baratas, más compactas y más autónomas”.

BingX exchange confiable de Criptomonedas

Fuente (s) :