Lo + Nuevo
Tag

inteligencia

Browsing

Al menos ocho personas, incluidos un niño, murieron y más de 2,800 resultaron heridas debido a la explosión de sus buscapersonas en todo Líbano. Un oficial de Hezbollah dijo a Reuters que este incidente es “la mayor brecha de seguridad” en casi un año de conflicto con Israel.

Las detonaciones ocurrieron de manera simultánea en varias partes del país, y expertos han propuesto varias hipótesis sobre el ataque.

Ataque remoto a buscapersonas utilizados por Hezbollah en Líbano y Siria provocó su explosión; al menos 8 muertos y más de 2,800 heridos

Los actores de amenazas habrían apuntado a los buscapersonas porque son utilizados por los combatientes de Hezbollah para comunicarse y así evitar ser rastreados y localizados por la inteligencia israelí.

Según Reuters, uno de los combatientes muertos era hijo de un miembro del parlamento de Hezbollah, y el embajador de Irán en Líbano, Mojtaba Amani, sufrió una lesión menor por las explosiones de los buscapersonas. De acuerdo con fuentes de seguridad, los buscapersonas que detonaron eran modelos recientes introducidos por Hezbollah.

Los buscapersonas que explotaron eran los últimos modelos adquiridos por Hezbollah en los últimos meses. Los expertos identificaron tres modelos diferentes que fueron atacados en esta operación.

La causa de las explosiones de los buscapersonas en Líbano sigue siendo incierta. Varios expertos creen que se trató de un ataque en la cadena de suministro.

Al analizar las imágenes de las explosiones, se observa que no hay humo ni fuego, como suele ocurrir en una explosión de baterías de litio.

Es probable que los actores maliciosos hayan interceptado el suministro y manipulado el hardware para causar las explosiones de manera remota. Según CNN, los buscapersonas podrían haber sido modificados antes del envío, lo que sugiere un ataque coordinado. Expertos como Justin Cappos subrayan que los dispositivos normales con baterías de iones de litio no están en riesgo. Sin embargo, estos buscapersonas parecen haber sido diseñados específicamente para detonar. La noticia sigue en desarrollo y las autoridades aún no han confirmado la causa exacta.

Donaciones y Apoyo

Fuente (s) :

Cripto Casino - Stake
Conoce Stake Cripto Casino

Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

FraudGPT y WormGPT son dos modelos de que permiten crear scripts y correos maliciosos

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.

Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.

Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.

Los ciberatacantes ya no cometen faltas de ortografía. “Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos”, explica Fernando Anaya, de la firma de seguridad Proofpoint

Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: “FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto”.

Generar audio, imágenes y vídeos

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes usan la inteligencia artificial para sintetizar audio. “Estafas como las de “pig butchering” podrían pasar algún día de los mensajes a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, cuenta Anaya. Esta estafa, traducida al español como “carnicería de cerdos”, se llama así porque los atacantes ‘engordan’ a las víctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, también puede implicar otros intercambios financieros.

Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnología para engañar a funcionarios gubernamentales. Algo que muestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Realizan videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados con inteligencia artificial y otras técnicas para que las víctimas cuenten información o ridiculizarlas, subiendo la grabación después a redes sociales”, explica Anaya.

La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido”.

Fuente (s) :

BingX exchange confiable de Criptomonedas