Lo + Nuevo
Tag

AI

Browsing

Cripto Casino - Stake
Conoce Stake Cripto Casino

En la era de la tecnología avanzada, el uso de deepfakes ha tomado un giro alarmante, evolucionando desde un entretenimiento digital hasta una herramienta potente para el fraude y otras actividades ilícitas. Los deepfakes, que utilizan inteligencia artificial (IA) para crear imágenes, videos o audios falsos casi indistinguibles de la realidad, representan una amenaza creciente para la seguridad digital y la confianza pública. A continuación, exploramos algunos de los casos más notables de fraude que involucraron el uso de esta tecnología, revelando cómo el engaño ha alcanzado niveles de sofisticación sin precedentes.

1. Caso de Suplantación del CEO de una Empresa Energética en el Reino Unido (2019)

Uno de los primeros y más comentados casos de fraude mediante deepfake ocurrió en 2019, cuando un grupo criminal utilizó tecnología de deepfake de audio para imitar la voz del CEO de una importante empresa energética con sede en el Reino Unido. La voz, que había sido entrenada utilizando patrones del discurso del ejecutivo extraídos de entrevistas públicas y llamadas telefónicas, resultó lo suficientemente convincente como para que un subordinado de la empresa transfiriera $243,000 a una cuenta en el extranjero.

Este caso demostró no solo el alto nivel de realismo que los deepfakes pueden alcanzar, sino también la vulnerabilidad de las organizaciones frente a estas técnicas de manipulación avanzada. A diferencia de los métodos de fraude tradicionales, este tipo de ataque explota la confianza interpersonal y los sistemas internos de las empresas.

Aspectos Relevantes del Caso:

  • Monto transferido: $243,000
  • Método utilizado: Deepfake de audio basado en la voz del CEO
  • Consecuencia: Pérdida financiera considerable y alarma en el sector empresarial

Este incidente fue un llamado de atención para muchas compañías, que comenzaron a invertir en medidas de seguridad más estrictas, como la verificación múltiple de transacciones y la capacitación en ciberseguridad para los empleados de todos los niveles.

2. Suplantación del CEO de una Compañía de Servicios Públicos Alemana

De manera similar, otro incidente que captó la atención de los medios fue el fraude contra una compañía de servicios públicos en Alemania, donde los delincuentes usaron la tecnología de deepfake para imitar la voz del CEO, logrando que un empleado transfiriera 35 millones de dólares. En este caso, el deepfake no solo imitó la voz, sino también el acento y estilo de comunicación del ejecutivo, haciendo que la solicitud pareciera urgente y completamente legítima.

Aspectos Destacados del Caso:

  • Monto transferido: $35 millones
  • Característica del fraude: Uso de acento y estilo de comunicación del CEO para aumentar la autenticidad del engaño
  • Resultado: Pérdida de una gran suma de dinero que tardó en ser rastreada

Este caso pone de manifiesto que incluso organizaciones grandes y bien estructuradas pueden ser víctimas de la suplantación de identidad si no cuentan con medidas de seguridad robustas que involucren la verificación de la identidad en múltiples capas.

3. Suplantación en Entrevistas de Trabajo

Un fenómeno cada vez más común es el uso de deepfakes en entrevistas de trabajo para suplantar la identidad de candidatos a empleos remotos. En 2022, el FBI informó sobre múltiples casos en los que los estafadores utilizaron videos deepfake para hacerse pasar por candidatos a puestos laborales. Los delincuentes empleaban estos videos falsificados en entrevistas con empleadores, buscando acceder a trabajos con acceso a información confidencial o con el fin de obtener ingresos fraudulentos.

Riesgos Inherentes:

  • Acceso a información sensible: Una vez dentro de la compañía, el estafador puede intentar acceder a datos empresariales confidenciales.
  • Disminución de la confianza en los procesos de contratación remota: La pandemia de COVID-19 incrementó la contratación remota, facilitando el uso de estas tácticas.

Este tipo de fraude es una clara amenaza para el entorno empresarial digital, especialmente a medida que más empresas adoptan el trabajo a distancia y las entrevistas virtuales. Se recomienda que los departamentos de recursos humanos implementen tecnologías de verificación en tiempo real, como sistemas biométricos o inteligencia artificial para detectar deepfakes durante el proceso de entrevistas.

4. Estafa por WhatsApp en Kerala, India

A nivel personal, los deepfakes también están siendo utilizados en fraudes más pequeños, como ocurrió en Kerala, India, donde un hombre fue víctima de una estafa a través de WhatsApp. Un delincuente utilizó la tecnología de deepfake para hacerse pasar por un familiar del hombre, pidiéndole que transfiriera ₹40,000 (alrededor de 500 dólares) con el pretexto de una emergencia. La reproducción de la voz fue tan convincente que el hombre no dudó en realizar la transacción.

Aspectos Relevantes:

  • Monto involucrado: ₹40,000 (500 dólares aproximadamente)
  • Plataforma utilizada: WhatsApp
  • Nivel de personalización: La víctima fue atacada directamente mediante la suplantación de la voz de un familiar

Este caso demuestra que las estafas mediante deepfakes no solo afectan a grandes corporaciones, sino que también pueden impactar gravemente a individuos comunes, generando pérdidas económicas y deteriorando las relaciones familiares.

5. Riesgo en el Sector Financiero

El sector financiero ha experimentado un aumento alarmante en los fraudes mediante deepfake. De acuerdo con un informe de Deloitte, los incidentes relacionados con el uso de deepfakes en el sector bancario y financiero aumentaron un 700% en 2023. Esto incluye desde la suplantación de oficiales bancarios para engañar a los clientes, hasta la falsificación de voces para autorizar transacciones fraudulentas.

Factores que Contribuyen al Aumento:

  • Avances en la tecnología de IA: La mejora continua en las herramientas de deepfake hace que los fraudes sean más difíciles de detectar.
  • Facilidad de acceso: Actualmente, existen plataformas y software disponibles para crear deepfakes sin necesidad de conocimientos avanzados, lo que amplía el rango de personas capaces de realizar estos ataques.

El incremento de este tipo de fraude ha forzado a las instituciones financieras a adoptar nuevas medidas de seguridad, como el uso de inteligencia artificial para detectar anomalías en patrones de voz y la implementación de sistemas de reconocimiento facial más avanzados.

El Impacto Creciente de los Deepfakes y las Medidas Preventivas

Estos casos son solo la punta del iceberg en términos de lo que la tecnología de deepfake es capaz de lograr. A medida que esta tecnología continúa evolucionando, también lo hacen los riesgos asociados con su mal uso. Las empresas y los individuos deben estar preparados para enfrentar un futuro donde la línea entre lo real y lo falso se difumina cada vez más.

El uso de deepfakes en fraudes ha puesto en alerta tanto a organizaciones como a individuos.
El uso de deepfakes en fraudes ha puesto en alerta tanto a organizaciones como a individuos.

Algunas recomendaciones clave para mitigar el riesgo incluyen:

  1. Capacitación en ciberseguridad: Las empresas deben formar a sus empleados en la identificación de posibles fraudes de deepfake, con énfasis en verificar solicitudes inesperadas.
  2. Verificación múltiple de identidad: Implementar métodos de verificación adicionales, como la autenticación biométrica, especialmente en transacciones y comunicaciones sensibles.
  3. Detección de deepfakes: Existen herramientas de software basadas en IA que pueden ayudar a identificar audios y videos falsos, por lo que su adopción es esencial para las empresas.
  4. Desarrollo de normativa específica: Los gobiernos y entidades reguladoras deben considerar la creación de leyes y políticas específicas que aborden el uso malicioso de los deepfakes y establezcan castigos adecuados para quienes los utilicen con fines fraudulentos.

El uso de deepfakes en fraudes ha puesto en alerta tanto a organizaciones como a individuos. Estos casos demuestran la necesidad urgente de adoptar tecnologías de defensa, capacitar a los empleados y estar siempre alerta ante la posibilidad de manipulación digital. La sofisticación de estos ataques continuará creciendo, y solo una combinación de prevención, detección y acción inmediata permitirá mitigar los daños que pueden causar los deepfakes en la sociedad.


Donaciones y Apoyo

Fuentes:

  • Deloitte United States. (2023). Informe sobre el aumento de fraudes en el sector financiero.
  • Built In. (2020). Casos de uso de deepfake en el ámbito corporativo.
  • Hindustan Times. (2022). Estafas mediante deepfakes: un riesgo creciente.

WhatsApp prepara un editor de fotos con IA generativa
WhatsApp prepara un editor de fotos con IA generativa

WhatsApp está preparando una emocionante actualización para su editor de fotos, introduciendo funciones mejoradas potenciadas por inteligencia artificial. Hasta ahora, el editor de fotos de WhatsApp era bastante básico, pero con estas nuevas capacidades, los usuarios podrán disfrutar de herramientas avanzadas como cambiar o eliminar fondos de fotos, expandir imágenes y aplicar estilos personalizados con facilidad. Estas características se han detectado en una versión beta de la aplicación, lo que sugiere que su lanzamiento oficial podría estar cerca. La integración de la inteligencia artificial generativa promete transformar la experiencia de edición de fotos en WhatsApp, ofreciendo a los usuarios opciones más creativas y potentes.

Fuente (s):

BingX exchange confiable de Criptomonedas
Cripto Casino - Stake
Conoce Stake Cripto Casino

El pasado mes de noviembre Elon Musk lanzaba Grok, una inteligencia artificial (IA) “rebelde e ingeniosa” integrada en X, red social conocida anteriormente como Twitter, y con la que busca desbancar a ChatGPT, de OpenAI. Un chatbot que será de código abierto esta misma semana, tal y como ha anunciado el propio magnate en una publicación emitida a las 9:41 hora de España peninsular del lunes 11 de marzo.

El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.
El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

  • El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

Una decisión Musk toma justo unos días después de que demandara a OpenAI -de la que fue cofundador- por su alianza con Microsoft y por “no beneficiar a la humanidad”. Y es que el multimillonario señala que la empresa de Sam Altman ha abandonado su misión original en favor de un modelo con ánimo de lucro. En varias ocasiones el magnate ha advertido del uso de la tecnología con fines lucrativos por parte de grandes compañías tecnológicas.

 “Esta semana, xAI abrirá el código de Grok”, ha indicado Elon Musk en una publicación en su cuenta personal de X. Por lo tanto, la empresa de inteligencia artificial del magnate va a liberar el código de su chatbot, aunque por el momento no se ha indicado en qué términos. Lo que sí se conoce es que esta decisión supone un gran salto en la política que había llevado hasta ahora con su IA.

 Al liberar el código de Grok, Musk podría dar al público acceso gratuito para que experimenten con el código detrás de su tecnología y alinea a xAI con firmas como Meta y la francesa Mistral, ambas con modelos de inteligencia artificial de código abierto. Incluso Google también ha lanzado Gemma, un modelo de IA más ligera que todo el mundo puede usar sin pagar y que los desarrolladores externos pueden adaptar a sus necesidades.

BingX exchange confiable de Criptomonedas

Esta medida no pilla de sorpresa, ya que el pasado mes de noviembre, durante un episodio de un pódcast, el magnate ya se mostró a favor del concepto de IA de código abierto: “El nombre, open en OpenAI, se supone que significa código abierto, y se creó como un código abierto sin ánimo de lucro. Y ahora es una fuente cerrada para obtener el máximo beneficio“.

Es cierto que la tecnología de código abierto puede ayudar a acelerar las innovaciones, sin embargo, algunos expertos han advertido de que los modelos de inteligencia artificial de código abierto podrían tener consecuencias, como señalan desde Reuters. Por ejemplo, los terroristas podrían acudir a ellas para crear armas químicas.

Igualmente, podría emplearse para desarrollar una superinteligencia consciente que se escape del control humano. El año pasado Elon Musk declaró en la Cumbre de Seguridad de la inteligencia artificial de Reino Unido que quería establecer un “árbitro externo” que pudiera supervisar a las empresas que desarrollan IA y dar la voz de alarma en caso de preocupación.

Fuente (s) :

ChatGPT es un bot con el que podemos entablar una conversación en texto a niveles muy sorprendentes. Además, la IA puede ayudarte en múltiples tareas, ya sea en programación, un proyecto personal, en tus estudios, y mucho más.

Google openAi

Los chatbots han existido desde hace muchos años, pero es la primera vez que vemos un ejemplo en el que nos permite conversar e interactuar en capas tan profundas. Esto puede ayudar en gran medida a cómo la gente realiza búsquedas en Internet, lo que puede suponer un serio problema para Google

La IA cobrará cada vez más importancia en nuestras búsquedas

Tal y como describe el New York Times, Sundar Pichai, CEO de Google, ha declarado un “código rojo” en la empresa. Además de mencionar una reestructuración a nivel interno, Pichai ve a ChatGPT como un serio competidor para Google.

Desde Google ya se están planteando cambios. Y es que la empresa no quiere que ChatGPT y OpenAI tomen el terreno que lleva años liderando Google. Para ello, la compañía tiene un plan, el cual pasa por reasignar nuevos proyectos para el desarrollo de varios productos relacionados con la inteligencia artificial en numerosos departamentos. El ejecutivo mencionaba lo siguiente:

“Desde ahora hasta la conferencia de Google en mayo, los equipos de investigación, confianza y seguridad de Google y otros departamentos han sido reasignados para ayudar a desarrollar y lanzar nuevos prototipos y productos de IA”.

A Google no le ha pillado esto por sorpresa. Dadas las dimensiones de una empresa como Google, es ilógico pensar que no ha realizado esfuerzos de similar calibre en inteligencia artificial. De hecho, la compañía dispone de múltiples recursos en este campo. Uno de ellos es LaMDA, su IA ultra avanzada que puede competir de tú a tú con ChatGPT. Sin embargo, la compañía no se fía del todo, ya que un producto de tal estilo podría dañar la reputación de la empresa, según la propia Google.

Cripto Casino - Stake

OpenAI se puede permitir lanzar productos a medio camino de su desarrollo. El tamaño de la empresa respecto al de Google es todavía muy inferior, y la percepción que suele tener el usuario sobre OpenAI tiende a un campo mucho más experimental que Google. 

Además de lo que supondría una inteligencia artificial de tal calibre para el buscador de Google, la compañía también dispone de una IA para la generación de imágenes a través de texto. De hecho, Google ya mostró las posibilidades de su proyecto IMAGEN, aunque al igual que LaMDA, la compañía prefiere reservar este tipo de herramientas a sus científicos y desarrolladores.

Todo indica a que lo que ha sido 2022 para la inteligencia artificial, no será nada comparado con lo que nos depara 2023. En lo que respecta a Google, tendremos que esperar a su próximo I/O para ver las novedades de la compañía en este campo.

Fuente (s) :

Escucha la noticia dando click en el audio 🙂

Unos delincuentes parecen haber robado 35 millones de dólares de un banco de Emiratos Árabes Unidos con la ayuda de un voz sintética creada con inteligencia artificial, según una información publicada la revista Forbes. Estas voces “deepfake” fueron utilizadas para engañar a un empleado del banco haciéndole creer que estaba haciendo una transacción comercial legítima asociada con el banco.

  • En la sucursal bancaria de los Emiratos Árabes Unidos recibieron una llamada telefónica de alguien que aseguraba ser el director de una empresa, una persona con quien el gerente del banco ya había hablado en distintas ocasiones.
  • La llamada telefónica con voz clonada junto a unos correos electrónicos falsos sirvieron para avisar a los trabajadores del banco de que se iba a realizar pronto una gran transferencia, que empezó en cuanto fue aprobada.
  • Según las investigaciones, los delincuentes “utilizaron la tecnología deepfake para simular la voz del director” y se calcula que hubo al menos 17 personas involucradas en el proceso. Además, después se distribuyó el dinero por cuentas bancarias de distintos países para que fuese complicado de recuperar.

 

Según informan en Gizmodo, en un robo se clonó la voz de un conocido del gerente de un banco para realizar una transferencia ilegal que superaba los 35 millones

La historia, que proviene de un documento judicial recién descubierto, tuvo lugar en enero pasado, cuando el gerente de la sucursal del banco (no se ha hecho público cual) recibió una llamada telefónica aparentemente normal. La persona que estaba al otro lado del teléfono afirmó ser el director de una gran empresa con la que el gerente había hablado anteriormente y que además sonaba igual que ellos, afirma el documento judicial. Esto, junto con lo que parecían ser una serie de correos electrónicos de la empresa y de su abogado, convenció al gerente de la sucursal de que iba a cerrar un gran negocio por valor de 35 millones de dólares. Posteriormente, siguiendo con las órdenes de la persona que había llamado, comenzó a realizar una serie de transferencias de dinero de la empresa a varias cuentas. Desafortunadamente, todo resultó ser una sofisticada estafa.

Los investigadores de Dubai a cargo del caso han revelado que los delincuentes “utilizaron una tecnología ‘deep voice’ para imitar la voz del director”. Las autoridades creen que en este plan participaron hasta 17 personas diferentes y que el efectivo robado fue canalizado hacia diversas cuentas bancarias repartidas por todo el mundo.

Lo creas o no, esta no es la primera vez que sucede algo así. En 2019, una empresa energética en Reino Unido sufrió un destino similar: los estafadores lograron robar unos 243.000 dólares haciéndose pasar por el director ejecutivo de la empresa. Y, según expertos en inteligencia artificial, tampoco es probable que vaya a ser la última vez.

“Los ‘deep fakes’ de vídeo y de audio representan el fascinante desarrollo tecnológico del siglo XXI, pero también son increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas”, dijo a Forbes Jake Moore, experto en ciberseguridad. “Actualmente estamos viendo cómo actores malintencionados utilizan su experiencia y recursos para acceder a lo último en tecnología para manipular a personas que, inocentemente, desconocen el alcance de estas tecnologías de ‘deep fake’ e incluso su existencia”.

Fuente (s) :

Créditos Música :

Sundown by | e s c p | https://escp-music.bandcamp.com
Music promoted by https://www.free-stock-music.com
Attribution 4.0 International (CC BY 4.0)
https://creativecommons.org/licenses/by/4.0/

Search and buy domains from Namecheap. Lowest prices!