Lo + Nuevo
Tag

IA

Browsing

Cripto Casino - Stake
Conoce Stake Cripto Casino

Microsoft ha anunciado que su confiable antivirus, Defender, protegerá a los usuarios de Windows 10 y Windows 11 contra esos molestos keyloggers. ¿Te suena? Esos programas sigilosos que intentan robar todo lo que escribes. Pues bien, el gigante tecnológico asegura que su software de seguridad ya está preparado para detectar y bloquear estos malwares, además de otro software malicioso que quiera echarle un vistazo a tus datos personales. Y lo mejor: la nueva versión de Microsoft Defender ahora cuenta con inteligencia artificial para detener el malware antes de que pueda hacer su trabajo sucio.

En un reciente comunicado en su blog, Microsoft explicó que la protección comienza desde el momento en que enciendes tu ordenador. Windows se vale de funciones de arranque seguro para verificar que el kernel y otros componentes del sistema no hayan sido alterados por algún hacker travieso. Así, el sistema evita que algún malware modifique la secuencia de arranque y haga de las suyas desde el principio.

Inteligencia Artificial al Rescate

La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos, según la propia empresa. ¡Sí, así de rápido! El software utiliza motores de detección que, o bien impiden la ejecución del malware a simple vista, o lo aíslan si logra colarse. ¿El resultado? La nueva versión de Defender es capaz de detener no solo keyloggers, sino también esos raspadores de pantalla que, además de registrar tus pulsaciones, se toman la libertad de grabar lo que ves en tu monitor. ¿Qué siguen? ¿Espiar tu cafetera inteligente?

¿Y si Deshabilitas el Antivirus? No te Preocupes

Incluso si eres uno de esos rebeldes que decide desactivar la protección en tiempo real (quizá para darle emoción a tu vida), Microsoft afirma que Defender aún bloqueará los keyloggers. Así que, aunque desactives el antivirus, tu teclado estará a salvo de miradas indiscretas.

La compañía puso algunos ejemplos de keyloggers que han sido bloqueados en Windows por defecto. El primero trató de hacer un reconocimiento antes de ejecutarse, como un ninja mal entrenado, pero fue detenido de inmediato. El segundo fue un poco más creativo y generó archivos adicionales con comportamientos sospechosos, pero también fue bloqueado antes de que lograra algo significativo. Finalmente, en el tercer caso, un usuario permitió la ejecución del keylogger con permisos de administrador (¡claro, porque todos necesitamos aventuras!), pero incluso con eso, el malware no pudo registrar las pulsaciones ni capturar la pantalla. Microsoft: 3, Keyloggers: 0.

Keyloggers: Esos Viejos Conocidos

Por si no lo sabías, los keyloggers son programas maliciosos diseñados para registrar las teclas que presionas en tu dispositivo. Se disfrazan de archivos inofensivos y capturan todo lo que escribes: desde tu nombre de usuario y contraseña, hasta esa búsqueda embarazosa en Google que preferirías olvidar.

Lo curioso es que los keyloggers no son algo nuevo; de hecho, tienen un pasado tan oscuro como la Guerra Fría. La primera evidencia de uno de estos bichos se remonta a los años 70, cuando la Unión Soviética desarrolló un dispositivo que podía registrar las pulsaciones en una máquina de escribir eléctrica. Este primer keylogger, conocido como Selectric, afectó a las máquinas IBM que se usaban en las embajadas de EE.UU. ¡Espionaje a la vieja usanza!

Con el tiempo, los keyloggers evolucionaron en variantes de software, como Ghost y Zeus, que hicieron de las suyas en la década de 2000. Estas versiones se centraron en atacar organizaciones financieras, aunque luego decidieron expandir su mercado y empezaron a robar contraseñas y datos de usuarios comunes. Muy inclusivo de su parte.

La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos.
La magia de la inteligencia artificial entra en juego, permitiendo a Microsoft Defender bloquear el malware en milisegundos.

Un Ejemplo Memorables de Keyloggers

Uno de los incidentes más sonados ocurrió en 2015, cuando hackers escondieron un keylogger en un mod de GTA V llamado Angry Planes. Este mod hacía que los pilotos fueran más agresivos, pero en realidad lo agresivo era el software escondido, que registraba toda la actividad del usuario y enviaba los datos a sus creadores. Afortunadamente, un usuario con ojo de halcón en los foros de GTA descubrió el truco y desató el caos entre los jugadores.

Según Microsoft, este tipo de amenazas ya no tendrán cabida en Windows 10 y Windows 11, incluso si decides apagar el antivirus para instalar algún software pirata (sí, te estamos mirando a ti, que todavía usas cracks para la Adobe Creative Suite). Así que, si planeabas hacer algo travieso, mejor piénsalo dos veces.

Donaciones y Apoyo

Fuente (s) :

Una Falsa Identidad de Hollywood: La Estafa que Sufrió Katy a Manos de un Impostor Usando IA

Las redes sociales han sido un terreno fértil para las estafas desde hace tiempo, algunas más sorprendentes que otras. Un caso particularmente inesperado es el de Katy, una vecina de Barcelona, que se convirtió en víctima de una estafa que involucraba la suplantación de identidad de un famoso actor de Hollywood mediante el uso de herramientas avanzadas de inteligencia artificial.

Katy llegó a interactuar con el 'actor'. "Era su voz", afirma, aunque esta había sido generada mediante inteligencia artificial.

La Suplantación de Identidad

Katy llegó a interactuar con el ‘actor’. “Era su voz”, afirma, aunque esta había sido generada mediante inteligencia artificial.

Una Conversación Inocente que Se Torna Personal

Todo comenzó de manera inocente. Katy, admiradora del actor Keanu Reeves, decidió dejarle un comentario en TikTok elogiando su gusto musical. Para su sorpresa, el ‘actor’ respondió rápidamente, agradeciéndole y comenzando una conversación que pronto se volvió personal.

“No podía creer que me llamara, pero la voz era la suya y me hablaba en inglés”, relató Katy en el programa ‘En boca de todos’ de Cuatro. Más tarde se descubriría que, aunque la voz parecía auténtica, había sido generada mediante inteligencia artificial.

El impostor empezó a comentar todas las fotos de Katy en redes sociales y a mantener conversaciones diarias con ella. Para que Katy no sospechara, incluso justificó su relación pública con Alexandra Grant, asegurándole que solo era una exigencia de la industria del espectáculo.

Las Peticiones de Dinero Comienzan

La primera solicitud de dinero llegó con una excusa sorprendente: el falso Keanu necesitaba 5.000 euros para comprarse un ordenador con el que escribir el guion de ‘John Wick 5’. A partir de ahí, las peticiones se hicieron más frecuentes y cuantiosas.

Katy también relató su experiencia en el programa “Y ahora Sonsoles” de Antena 3: “Me pidió dinero para venir aquí, 60.000 euros de jet privado, luego me pidió 5.000 euros para un ordenador especial para crear sus guiones, John Wick 5, y para invertir en Bitcoin. Yo le había dado 450.000 y mi dinero nunca llegaba”.

En total, Katy realizó 16 transferencias bancarias, algunas de hasta 90.000 euros, alcanzando una suma de más de 700.000 euros. Solicitó préstamos tanto a su madre como al banco para seguir ayudando al supuesto Keanu Reeves, incluso vendió un piso.

Descubrimiento y Denuncia

Finalmente, las sospechas llevaron a Katy a cortar la comunicación y denunciar la estafa. No confía en recuperar todo el dinero perdido, a pesar de contar con información sobre las cuentas del estafador.

Uso de Voz Generada por IA

Katy explicó cómo su admiración por el actor se convirtió en una pesadilla cuando un hombre utilizó la imagen y la voz de Reeves, generada con IA, para engañarla y estafarle una gran suma de dinero. Mantenían conversaciones hasta con mensajes de audio en inglés, y Katy verificó varias veces que efectivamente se trataba de la voz del actor.

Estrategia del Estafador

Este falso Reeves comentaba todas sus fotos en redes sociales y chateaban a diario, creando una relación de confianza. Hablaron de música rock, motos, sus próximas películas y hasta justificó su relación con Alexandra Grant para que Katy no estuviera celosa. “Me pidió dinero para venir aquí, 60.000 euros de jet privado, luego me pidió 5.000 euros para un ordenador especial para crear sus guiones, John Wick 5, y para invertir en Bitcoin. Yo le había dado 450.000 y mi dinero nunca llegaba”, explicaba Katy.

Consecuencias Financieras

La situación se volvió crítica cuando Katy, sin sospechar la estafa, realizó 16 transferencias bancarias, endeudándose significativamente. Solicitó préstamos de su madre y del banco, e incluso vendió un piso para seguir ayudando al supuesto Keanu Reeves. Eventualmente, las sospechas la llevaron a cortar la comunicación y denunciar la situación, con la esperanza de recuperar al menos parte del dinero perdido. Katy dejó claro en el programa “Y ahora Sonsoles” que no fue una estafa amorosa, sino económica, y expresó su desconfianza en recuperar todo el dinero, aunque cuenta con detalles sobre las cuentas del estafador. Aprovechó la oportunidad para enviar un mensaje al auténtico Keanu Reeves.

Fuente (s):

Cripto Casino - Stake
Conoce Stake Cripto Casino

Científicos de Michigan Desarrollan IA que Traduce Ladridos de Perros

Un equipo de investigadores de la Universidad de Michigan ha presentado un algoritmo de inteligencia artificial (IA) capaz de traducir los ladridos de los perros. Aunque esta tecnología no permitirá tener conversaciones completas con nuestras mascotas, sí puede interpretar sus ladridos y comunicar sus emociones, como felicidad, tristeza o miedo. Aunque el número de palabras extraídas es limitado, la capacidad de identificar emociones hace que esta herramienta sea valiosa e intrigante.

Entrenamiento de la IA con Humanos y Perros

La IA logra traducir los ladridos después de un preentrenamiento con conversaciones humanas y vocalizaciones de perros, donde se provocaron emociones específicas. Es fundamental señalar que este estudio aún está pendiente de revisión por pares. Esto significa que, hasta que otros científicos validen los resultados, debemos ser cautelosos. Sin embargo, es emocionante pensar que en el futuro podríamos entender mejor a nuestros perros, aunque sea en un sentido emocional.

Comunicación Animal y Ciencia Ficción

La idea de comunicarse con animales a través de la IA puede parecer salida de una película de ciencia ficción. Un ejemplo popular es la serie SeaQuest, donde un delfín llamado Darwin podía comunicarse con los humanos mediante un algoritmo avanzado. Aunque la realidad aún no alcanza esa ficción, muchos científicos están explorando la posibilidad de usar la inteligencia artificial para entender a nuestras mascotas.

Desarrollando el Algoritmo

Para desarrollar su algoritmo, los científicos de Michigan trabajaron con 74 perros de diversas razas, aunque cerca de la mitad eran chihuahuas. Grabaron los sonidos de los perros en situaciones controladas que provocaban emociones específicas, como jugar con ellos o simular daños a sus dueños. De esta manera, identificaron 14 tipos diferentes de ladridos, gruñidos, aullidos y gemidos, cada uno con connotaciones emocionales positivas, negativas o neutras.

Lo más interesante es que el algoritmo se preentrenó con grabaciones de conversaciones humanas. Esto permitió a la IA relacionar mensajes humanos con vocalizaciones caninas. Después, se entrenó con los sonidos de perros grabados en la primera fase del estudio. Finalmente, introdujeron grabaciones aleatorias para verificar si la IA podía traducir los ladridos. Sorprendentemente, con el preentrenamiento humano, la IA alcanzó una tasa de éxito del 62.2 %, que en algunos casos específicos superaba el 90 %. Sin este preentrenamiento, la precisión era significativamente menor.

Identificación de Razas

Además de traducir los ladridos, el algoritmo logró identificar con un 75 % de precisión las razas de los perros, sugiriendo que cada raza tiene su propio “acento”. Aunque estos resultados aún deben ser validados por la revisión por pares, son lo suficientemente prometedores como para seguir investigando. Si se confirma su eficacia, esta IA podría representar una gran revolución en la comunicación entre humanos y sus mascotas.

Fuente (s) :

 Estas tecnologías, particularmente notables en el último año, están revolucionando el panorama al ofrecer resultados sorprendentes que facilitan procesos complejos y democratizan la producción audiovisual
Estas tecnologías, particularmente notables en el último año, están revolucionando el panorama al ofrecer resultados sorprendentes que facilitan procesos complejos y democratizan la producción audiovisual

En el dinámico mundo de la creación de contenido digital, las herramientas de inteligencia artificial (IA) han transformado la manera en que se generan imágenes y vídeos. Estas tecnologías, particularmente notables en el último año, están revolucionando el panorama al ofrecer resultados sorprendentes que facilitan procesos complejos y democratizan la producción audiovisual. Cualquier persona con acceso a Internet puede ahora convertirse en un creador de contenido. A continuación, se presenta un listado de herramientas de IA para vídeos, la mayoría de las cuales tienen versiones gratuitas:

Cripto Casino - Stake
Conoce Stake Cripto Casino

Herramientas de IA para Vídeos

Runway

Runway es una plataforma innovadora que redefine el arte y el entretenimiento, permitiendo a los usuarios descubrir su potencial creativo mediante su herramienta Gen-2. Esta tecnología hace que la creación de contenido sofisticado sea accesible para todos, transformando la interacción entre los creadores y la tecnología.

Pika Labs

Pika Labs, con su plataforma Text-to-Video, ofrece la capacidad de convertir texto en vídeos complejos, simplificando enormemente la producción de contenido visual y abriendo nuevas posibilidades creativas sin necesidad de experiencia previa en video.

Genmo

Genmo, a través de su modelo Replay, presenta una herramienta que genera reproducciones de vídeo con una calidad y eficiencia que rivalizan con la producción humana. Esto establece un nuevo estándar en la generación automática de contenido.

Moonvalley AI

Moonvalley AI permite transformar ideas en vídeos cortos de manera rápida y eficaz, ideal para aquellos que desean compartir contenidos visualmente atractivos sin invertir mucho tiempo en producción.

Aplicaciones Móviles para Edición de Vídeo

Para los creadores de contenido en movimiento, tener herramientas de edición de vídeo al alcance de la mano es esencial. Las aplicaciones móviles se han perfeccionado para ofrecer una experiencia robusta y profesional directamente desde dispositivos móviles, haciendo que la edición sobre la marcha sea tan eficaz como en un estudio tradicional.

Adobe Premiere Rush

Adobe Premiere Rush es una versión más ligera y ágil de Adobe Premiere Pro, diseñada para editar vídeos rápidamente mientras se está en movimiento. Esta aplicación intuitiva incluye herramientas esenciales de edición y permite compartir contenido directamente en redes sociales.

KineMaster

KineMaster ofrece funcionalidades de estudio de cine en el bolsillo. Con una amplia gama de herramientas de edición, desde capas de video y audio hasta efectos especiales y animaciones, es ideal para ediciones complejas desde dispositivos móviles.

InShot

InShot es perfecto para ajustes rápidos y retoques, ideal para creadores que desean editar vídeos entre actividades diarias. Sus funciones fáciles de usar permiten recortar, acelerar, añadir música o filtros, y más, todo desde un smartphone.

FilmoraGo

FilmoraGo permite a los usuarios crear vídeos profesionales sin necesidad de ser expertos. Ofrece funciones como cortar, insertar música, aplicar filtros, y mucho más, transformando cualquier vídeo en una obra maestra.

CapCut

CapCut es especialmente popular entre los usuarios de TikTok, ofreciendo herramientas fáciles de usar para editar vídeos destinados a redes sociales. Permite añadir música, efectos y textos, facilitando la creación de contenido atractivo y de tendencia.

Mejora de Calidad de Sonido para Vídeos

FreeSFX

FreeSFX ofrece una amplia biblioteca de efectos de sonido gratuitos, aunque requiere registro para acceder.

Incompetech

Incompetech proporciona música de fondo libre de derechos, ideal para proyectos que requieren una banda sonora sin complicaciones legales.

Freesound

Freesound es una plataforma rica en sonidos de todo tipo, perfecta para creadores que buscan efectos específicos para enriquecer sus producciones audiovisuales.

Software de Edición de Vídeo para PC

DaVinci Resolve

DaVinci Resolve es reconocido por sus capacidades de corrección de color y edición no lineal, siendo ideal para proyectos que requieren un alto nivel de profesionalismo.

Shotcut

Shotcut es un editor de video gratuito y de código abierto que ofrece amplias funcionalidades tanto para principiantes como para profesionales.

HitFilm Express

HitFilm Express es perfecto para entusiastas de los efectos visuales que desean agregar un toque profesional a sus vídeos.

Lightworks

Lightworks, usado en la industria cinematográfica, está disponible en una versión gratuita que, aunque limitada, ofrece herramientas poderosas.

Blender

Más allá de su reputación en la animación 3D, Blender también es una herramienta competente para la edición de vídeo.

estas innovaciones aseguran que las barreras para entrar al mundo del cine y la creación de contenido sean cada vez menores.

Las herramientas descritas en este artículo no solo democratizan el proceso de creación de contenido, permitiendo a usuarios de todos los niveles producir obras visualmente impresionantes, sino que también destacan cómo la accesibilidad a estas tecnologías puede fomentar una nueva era de creatividad y expresión.

Desde potentes plataformas basadas en IA hasta aplicaciones móviles ágiles, las opciones son variadas y están diseñadas para satisfacer las necesidades de creadores en constante movimiento o para aquellos que desean explorar nuevas alturas creativas desde la comodidad de su hogar o estudio.

Ya sea que se trate de hacer ajustes rápidos en un clip durante un viaje en tren o de embarcarse en proyectos más ambiciosos con herramientas de edición de nivel profesional, estas innovaciones aseguran que las barreras para entrar al mundo del cine y la creación de contenido sean cada vez menores.

Este contenido es solo el comienzo de lo que es posible con las herramientas de inteligencia artificial para vídeos disponibles hoy en día. A medida que estas tecnologías continúan evolucionando, podemos esperar ver aún más avances que seguirán transformando el paisaje de la creación de contenido digital.

Fuente (s):

Cripto Casino - Stake
Conoce Stake Cripto Casino

Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

FraudGPT y WormGPT son dos modelos de que permiten crear scripts y correos maliciosos

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.

Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.

Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.

Los ciberatacantes ya no cometen faltas de ortografía. “Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos”, explica Fernando Anaya, de la firma de seguridad Proofpoint

Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: “FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto”.

Generar audio, imágenes y vídeos

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes usan la inteligencia artificial para sintetizar audio. “Estafas como las de “pig butchering” podrían pasar algún día de los mensajes a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, cuenta Anaya. Esta estafa, traducida al español como “carnicería de cerdos”, se llama así porque los atacantes ‘engordan’ a las víctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, también puede implicar otros intercambios financieros.

Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnología para engañar a funcionarios gubernamentales. Algo que muestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Realizan videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados con inteligencia artificial y otras técnicas para que las víctimas cuenten información o ridiculizarlas, subiendo la grabación después a redes sociales”, explica Anaya.

La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido”.

Fuente (s) :

BingX exchange confiable de Criptomonedas

 La inteligencia artificial, al tener tantos vertientes distintos, ha tocado muchos aspectos de la vida cotidiana. En los últimos años hemos visto en España imágenes tan distópicas como perros autónomos robot apoyando a policías e incluso deepfakes para resolver casos policiales. La última y más sorprendente implica a un departamento de policía que habría usado una muestra de ADN para emular el rostro de un sospechoso y para luego aplicarle reconocimiento facial.

  • Un departamento de policía de Estados Unidos tiene como fiables métodos no contrastados por la ciencia para sus investigaciones.

 Una historia que se puede leer en el portal Wiredy que relata cómo detectives del Departamento de Policía del Distrito de Parques Regionales de East Bay (California, Estados Unidos) habrían usado tecnologías de reconocimiento facial sobre un retrato generado a partir de una muestra de ADN. Una situación que podría ser el primer caso conocido de esta clase, y que entraña todo tipo de problemas en ámbitos éticos, morales y legales.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Esta fue una idea de los propios detectives que estaban trabajando en un caso de asesinato. La víctima se llamaba Maria Jane Weidhofer, la cual había sido encontrada en el Parque Regional Tiden de Berkeley (California) asesinada y con signos de abuso sexual. Un caso que data del año 1990 y que se ha intentado resolver en 2017 usando estas técnicas de reconocimiento facial.

Todo comienza en el departamento de Policía ya mencionado en el año 2017. El cuerpo envió una muestra de información genética basada en ADN a Parabon NanoLabs, una compañía que asegura que puede analizar este tipo de muestras para conseguir recrear en 3D el rostro de sus dueños. Al parecer, los detectives contaban con esta muestra recogida directamente del escenario del crimen donde Weidhofer fue asesinada.

Parabon NanoLabs realizó el correspondiente análisis del ADN proporcionado por los policías usando un modelo de aprendizaje automático patentado. La firma proporcionó al cuerpo el rostro del posible autor del crimen, o por lo menos, un sospechoso potencial. Dicha cara fue generada únicamente utilizando evidencias recogidas en la escena del crimen.

Hay que aclarar, tal y como apunta Wired, que dicho rostro no era ni mucho menos una fotografía. Lo que Parabon NanoLabs entregó a los detectives fue un Informe Instantáneo de Fenotipo, una representación en 3D hecha mediante el algoritmo de la compañía. Los rasgos físicos de esta cara habrían sido generados gracias a los atributos genéticos encontrados en la muestra de ADN, y el algoritmo se habría encargado de crearlos.

El rostro en cuestión era de un varón de piel clara, cabello y ojos castaños, frondosas cejas y sin pecas. Un forense especializado en arte dentro del departamento cambió la fotografía para añadirle un corte de pelo más habitual, propio de un hombre de la calle y le puso un bigote. Siempre usando la descripción que un testigo dio en la época.

En un primer momento, el departamento publicó la cara en un intento de conseguir un reconocimiento de algún ciudadano de los condados de Alameda y Contra Costa de California. No sirvió de nada, y el caso siguió estancado. No fue hasta 3 años después, en 2020, que el departamento (o más bien uno de los detectives) tomó la decisión de que pasaran esta imagen por un software de reconocimiento facial.

BingX exchange confiable de Criptomonedas

En una solicitud de “apoyo analítico” enviada al Centro Regional del Norte de California, dicho detective habló de la situación. “Utilizando el ADN encontrado en la escena del crimen, Parabon Labs reconstruyó los rasgos faciales de un posible sospechoso. […] Tengo una foto del posible sospechoso y me gustaría utilizar la tecnología de reconocimiento facial para identificar a un sospechoso”.

Lo más sorprendente del caso, que ya presenta muchas cuestiones a nivel ético, moral y legal, es que dicho movimiento no fue informado debidamente por el detective. Tanto es así, que este hecho fue sabido gracias a unos registros policiales hackeados por el colectivo Distributed Denial of Secrets. Este es un grupo whistleblower que tiene como principal objetivo que la información de interés público sea completamente accesible. Esta incluye filtraciones, información censurada, etcétera.

El Centro Regional de Inteligencia del Norte de California, que recibió la solicitud del detective, es un centro destinado a facilitar la colaboración entre las distintas autoridades federales que operan en el estado, incluyendo departamentos de policía a nivel local y estatal. No se sabe si atendió debidamente la solicitud del detective. Si bien hay indicios de que podrían haber realizado dicha búsqueda, ni el centro ni el departamento dieron declaraciones.

Todo esto parte de la base de que no existe evidencia científica clara que confirme que efectivamente los métodos de Parabon NanoLabs son confiables para recrear fielmente la cara de una persona mediante ADN. Esta es una compañía centrada específicamente en la genealogía genética forense, dedicada al apoyo a fuerzas de autoridad como el propio departamento mencionado anteriormente.

Queda la palabra de Parabon, que afirma que no solo pueden recrear el color del pelo o de los ojos, sino incluso la piel de una persona. También pueden recrear la forma general de sus caras, y los fenotipos generados por la empresa se usan como base para las representaciones faciales que Parabon acaba enviando a sus clientes. Su metodología no ha sido debidamente revisada por pares, quedando en entredicho su fiabilidad por parte de la comunidad científica.

La sorpresa llega cuando descubrimos que este servicio de recreación facial basada en ADN ha sido ampliamente usado por fuerzas del orden de Estados Unidos. Un servicio lanzado en 2015 y que 8 años después ha servido para generar “decenas de predicciones faciales”, según Wired. De hecho, el medio ha contactado con un buen número de departamentos y agentes que aseguran que esta opción es, como mínimo, digna de consideración.

Usando reconocimiento facial

¿Qué implica usar reconocimiento facial en este caso? Estos casos enlazan directamente a personas que de forma indirecta o directa podrían estar relacionados con estos crímenes, por lo que el uso de no una sino dos tecnologías distintas —una de ellas no verificada— es, como mínimo, cuestionable. Pero las voces contrarias han llegado incluso de la propia Parabon.

Y es que poco después de que se lanzara el servicio de predicción facial en 2015, se preguntó a la directora de bioinformática de Parabon NanoLabs Ellen Greytak sobre la posibilidad de probar herramientas de reconocimiento facial sobre estos rostros generados por fenotipos. Greytak declaró por aquel entonces que este “no es el propósito de las imágenes compuestas”.

Algunos miembros de distintos departamentos de policía de Estados Unidos han hablado sobre las implicaciones que estos métodos tendrían sobre una investigación. Haley Williams, Gerente de comunicaciones del Departamento de Policía de Boise en Idaho, explica que aunque la idea de usar reconocimiento facial con una cara generada por algoritmo dependería de cada caso, “nunca se basaría únicamente en una sola pieza de evidencia”. Solo se usaría “como una herramienta” para encontrar más pistas.

Por otro lado, las justificaciones de los departamentos para usar estos rostros generados por ADN varían. Mientras que algunos se limitan a decir que es una herramienta útil, otros defienden la precisión de estos rostros para el uso de software de reconocimiento facial. El ejemplo claro es el de Andrew Sullivan, sheriff del condado de DeKalb que declara que sí usarían esa información “para desarrollar cualquier pista que tuviéramos para resolver cualquier homicidio”.

La posibilidad de que existan falsos positivos y errores en ambos métodos no ha impedido que algunos detectives defiendan su uso en casos especialmente intrincados. Uno de ellos, anónimo, declara lo siguiente: “Sé que la cara de Parabon no es perfecta, pero ¿por qué no utilizaríamos todas las herramientas disponibles para intentar atrapar a un asesino”?. Y es que estos fenotipos se usan, usualmente, después de haber agotado todas las vías posibles a la hora de encontrar pistas.

Ya existen casos de personas que han sido acusadas por software de manera indebida. Fue el ejemplo de Robert Julian-Borchak Williams, un oficinista en una compañía de suministros automotrices, que en 2020 fue detenido en una investigación que involucró el uso de un algoritmo. El uso deficiente de reconocimiento facial y cuestiones relacionadas con el racismo le valió una falsa acusación, que se reflejó como un acto de abuso policial usando estos software como excusa.

Fuente (s) :

BingX exchange confiable de Criptomonedas

ChatGPT es un bot con el que podemos entablar una conversación en texto a niveles muy sorprendentes. Además, la IA puede ayudarte en múltiples tareas, ya sea en programación, un proyecto personal, en tus estudios, y mucho más.

Google openAi

Los chatbots han existido desde hace muchos años, pero es la primera vez que vemos un ejemplo en el que nos permite conversar e interactuar en capas tan profundas. Esto puede ayudar en gran medida a cómo la gente realiza búsquedas en Internet, lo que puede suponer un serio problema para Google

La IA cobrará cada vez más importancia en nuestras búsquedas

Tal y como describe el New York Times, Sundar Pichai, CEO de Google, ha declarado un “código rojo” en la empresa. Además de mencionar una reestructuración a nivel interno, Pichai ve a ChatGPT como un serio competidor para Google.

Desde Google ya se están planteando cambios. Y es que la empresa no quiere que ChatGPT y OpenAI tomen el terreno que lleva años liderando Google. Para ello, la compañía tiene un plan, el cual pasa por reasignar nuevos proyectos para el desarrollo de varios productos relacionados con la inteligencia artificial en numerosos departamentos. El ejecutivo mencionaba lo siguiente:

“Desde ahora hasta la conferencia de Google en mayo, los equipos de investigación, confianza y seguridad de Google y otros departamentos han sido reasignados para ayudar a desarrollar y lanzar nuevos prototipos y productos de IA”.

A Google no le ha pillado esto por sorpresa. Dadas las dimensiones de una empresa como Google, es ilógico pensar que no ha realizado esfuerzos de similar calibre en inteligencia artificial. De hecho, la compañía dispone de múltiples recursos en este campo. Uno de ellos es LaMDA, su IA ultra avanzada que puede competir de tú a tú con ChatGPT. Sin embargo, la compañía no se fía del todo, ya que un producto de tal estilo podría dañar la reputación de la empresa, según la propia Google.

Cripto Casino - Stake

OpenAI se puede permitir lanzar productos a medio camino de su desarrollo. El tamaño de la empresa respecto al de Google es todavía muy inferior, y la percepción que suele tener el usuario sobre OpenAI tiende a un campo mucho más experimental que Google. 

Además de lo que supondría una inteligencia artificial de tal calibre para el buscador de Google, la compañía también dispone de una IA para la generación de imágenes a través de texto. De hecho, Google ya mostró las posibilidades de su proyecto IMAGEN, aunque al igual que LaMDA, la compañía prefiere reservar este tipo de herramientas a sus científicos y desarrolladores.

Todo indica a que lo que ha sido 2022 para la inteligencia artificial, no será nada comparado con lo que nos depara 2023. En lo que respecta a Google, tendremos que esperar a su próximo I/O para ver las novedades de la compañía en este campo.

Fuente (s) :

Escucha la noticia dando click en el audio 🙂

Unos delincuentes parecen haber robado 35 millones de dólares de un banco de Emiratos Árabes Unidos con la ayuda de un voz sintética creada con inteligencia artificial, según una información publicada la revista Forbes. Estas voces “deepfake” fueron utilizadas para engañar a un empleado del banco haciéndole creer que estaba haciendo una transacción comercial legítima asociada con el banco.

  • En la sucursal bancaria de los Emiratos Árabes Unidos recibieron una llamada telefónica de alguien que aseguraba ser el director de una empresa, una persona con quien el gerente del banco ya había hablado en distintas ocasiones.
  • La llamada telefónica con voz clonada junto a unos correos electrónicos falsos sirvieron para avisar a los trabajadores del banco de que se iba a realizar pronto una gran transferencia, que empezó en cuanto fue aprobada.
  • Según las investigaciones, los delincuentes “utilizaron la tecnología deepfake para simular la voz del director” y se calcula que hubo al menos 17 personas involucradas en el proceso. Además, después se distribuyó el dinero por cuentas bancarias de distintos países para que fuese complicado de recuperar.

 

Según informan en Gizmodo, en un robo se clonó la voz de un conocido del gerente de un banco para realizar una transferencia ilegal que superaba los 35 millones

La historia, que proviene de un documento judicial recién descubierto, tuvo lugar en enero pasado, cuando el gerente de la sucursal del banco (no se ha hecho público cual) recibió una llamada telefónica aparentemente normal. La persona que estaba al otro lado del teléfono afirmó ser el director de una gran empresa con la que el gerente había hablado anteriormente y que además sonaba igual que ellos, afirma el documento judicial. Esto, junto con lo que parecían ser una serie de correos electrónicos de la empresa y de su abogado, convenció al gerente de la sucursal de que iba a cerrar un gran negocio por valor de 35 millones de dólares. Posteriormente, siguiendo con las órdenes de la persona que había llamado, comenzó a realizar una serie de transferencias de dinero de la empresa a varias cuentas. Desafortunadamente, todo resultó ser una sofisticada estafa.

Los investigadores de Dubai a cargo del caso han revelado que los delincuentes “utilizaron una tecnología ‘deep voice’ para imitar la voz del director”. Las autoridades creen que en este plan participaron hasta 17 personas diferentes y que el efectivo robado fue canalizado hacia diversas cuentas bancarias repartidas por todo el mundo.

Lo creas o no, esta no es la primera vez que sucede algo así. En 2019, una empresa energética en Reino Unido sufrió un destino similar: los estafadores lograron robar unos 243.000 dólares haciéndose pasar por el director ejecutivo de la empresa. Y, según expertos en inteligencia artificial, tampoco es probable que vaya a ser la última vez.

“Los ‘deep fakes’ de vídeo y de audio representan el fascinante desarrollo tecnológico del siglo XXI, pero también son increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”, dijo a Forbes Jake Moore, experto en ciberseguridad. “Actualmente estamos viendo cómo actores malintencionados utilizan su experiencia y recursos para acceder a lo último en tecnología para manipular a personas que, inocentemente, desconocen el alcance de estas tecnologías de ‘deep fake’ e incluso su existencia”.

Fuente (s) :

Créditos Música :

Sundown by | e s c p | https://escp-music.bandcamp.com
Music promoted by https://www.free-stock-music.com
Attribution 4.0 International (CC BY 4.0)
https://creativecommons.org/licenses/by/4.0/

Search and buy domains from Namecheap. Lowest prices!