Lo + Nuevo
Tag

Inteligencia Artificial

Visitando
Cripto Casino - Stake
Conoce Stake Cripto Casino

El pasado mes de noviembre Elon Musk lanzaba Grok, una inteligencia artificial (IA) “rebelde e ingeniosa” integrada en X, red social conocida anteriormente como Twitter, y con la que busca desbancar a ChatGPT, de OpenAI. Un chatbot que será de código abierto esta misma semana, tal y como ha anunciado el propio magnate en una publicación emitida a las 9:41 hora de España peninsular del lunes 11 de marzo.

El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.
El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

  • El magnate ha anunciado en X (Twitter) que va a liberar el código de su inteligencia artificial, con la que quiere desbancar a la IA de OpenAI.

Una decisión Musk toma justo unos días después de que demandara a OpenAI -de la que fue cofundador- por su alianza con Microsoft y por “no beneficiar a la humanidad”. Y es que el multimillonario señala que la empresa de Sam Altman ha abandonado su misión original en favor de un modelo con ánimo de lucro. En varias ocasiones el magnate ha advertido del uso de la tecnología con fines lucrativos por parte de grandes compañías tecnológicas.

 “Esta semana, xAI abrirá el código de Grok”, ha indicado Elon Musk en una publicación en su cuenta personal de X. Por lo tanto, la empresa de inteligencia artificial del magnate va a liberar el código de su chatbot, aunque por el momento no se ha indicado en qué términos. Lo que sí se conoce es que esta decisión supone un gran salto en la política que había llevado hasta ahora con su IA.

 Al liberar el código de Grok, Musk podría dar al público acceso gratuito para que experimenten con el código detrás de su tecnología y alinea a xAI con firmas como Meta y la francesa Mistral, ambas con modelos de inteligencia artificial de código abierto. Incluso Google también ha lanzado Gemma, un modelo de IA más ligera que todo el mundo puede usar sin pagar y que los desarrolladores externos pueden adaptar a sus necesidades.

BingX exchange confiable de Criptomonedas

Esta medida no pilla de sorpresa, ya que el pasado mes de noviembre, durante un episodio de un pódcast, el magnate ya se mostró a favor del concepto de IA de código abierto: “El nombre, open en OpenAI, se supone que significa código abierto, y se creó como un código abierto sin ánimo de lucro. Y ahora es una fuente cerrada para obtener el máximo beneficio“.

Es cierto que la tecnología de código abierto puede ayudar a acelerar las innovaciones, sin embargo, algunos expertos han advertido de que los modelos de inteligencia artificial de código abierto podrían tener consecuencias, como señalan desde Reuters. Por ejemplo, los terroristas podrían acudir a ellas para crear armas químicas.

Igualmente, podría emplearse para desarrollar una superinteligencia consciente que se escape del control humano. El año pasado Elon Musk declaró en la Cumbre de Seguridad de la inteligencia artificial de Reino Unido que quería establecer un “árbitro externo” que pudiera supervisar a las empresas que desarrollan IA y dar la voz de alarma en caso de preocupación.

Fuente (s) :

Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

FraudGPT y WormGPT son dos modelos de que permiten crear scripts y correos maliciosos

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.

Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.

Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.

Los ciberatacantes ya no cometen faltas de ortografía. “Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos”, explica Fernando Anaya, de la firma de seguridad Proofpoint

Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: “FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto”.

Generar audio, imágenes y vídeos

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes usan la inteligencia artificial para sintetizar audio. “Estafas como las de “pig butchering” podrían pasar algún día de los mensajes a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, cuenta Anaya. Esta estafa, traducida al español como “carnicería de cerdos”, se llama así porque los atacantes ‘engordan’ a las víctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, también puede implicar otros intercambios financieros.

Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnología para engañar a funcionarios gubernamentales. Algo que muestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Realizan videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados con inteligencia artificial y otras técnicas para que las víctimas cuenten información o ridiculizarlas, subiendo la grabación después a redes sociales”, explica Anaya.

La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido”.

Fuente (s) :

BingX exchange confiable de Criptomonedas

 La inteligencia artificial, al tener tantos vertientes distintos, ha tocado muchos aspectos de la vida cotidiana. En los últimos años hemos visto en España imágenes tan distópicas como perros autónomos robot apoyando a policías e incluso deepfakes para resolver casos policiales. La última y más sorprendente implica a un departamento de policía que habría usado una muestra de ADN para emular el rostro de un sospechoso y para luego aplicarle reconocimiento facial.

  • Un departamento de policía de Estados Unidos tiene como fiables métodos no contrastados por la ciencia para sus investigaciones.

 Una historia que se puede leer en el portal Wiredy que relata cómo detectives del Departamento de Policía del Distrito de Parques Regionales de East Bay (California, Estados Unidos) habrían usado tecnologías de reconocimiento facial sobre un retrato generado a partir de una muestra de ADN. Una situación que podría ser el primer caso conocido de esta clase, y que entraña todo tipo de problemas en ámbitos éticos, morales y legales.

Cripto Casino - Stake
Conoce Stake Cripto Casino

Esta fue una idea de los propios detectives que estaban trabajando en un caso de asesinato. La víctima se llamaba Maria Jane Weidhofer, la cual había sido encontrada en el Parque Regional Tiden de Berkeley (California) asesinada y con signos de abuso sexual. Un caso que data del año 1990 y que se ha intentado resolver en 2017 usando estas técnicas de reconocimiento facial.

Todo comienza en el departamento de Policía ya mencionado en el año 2017. El cuerpo envió una muestra de información genética basada en ADN a Parabon NanoLabs, una compañía que asegura que puede analizar este tipo de muestras para conseguir recrear en 3D el rostro de sus dueños. Al parecer, los detectives contaban con esta muestra recogida directamente del escenario del crimen donde Weidhofer fue asesinada.

Parabon NanoLabs realizó el correspondiente análisis del ADN proporcionado por los policías usando un modelo de aprendizaje automático patentado. La firma proporcionó al cuerpo el rostro del posible autor del crimen, o por lo menos, un sospechoso potencial. Dicha cara fue generada únicamente utilizando evidencias recogidas en la escena del crimen.

Hay que aclarar, tal y como apunta Wired, que dicho rostro no era ni mucho menos una fotografía. Lo que Parabon NanoLabs entregó a los detectives fue un Informe Instantáneo de Fenotipo, una representación en 3D hecha mediante el algoritmo de la compañía. Los rasgos físicos de esta cara habrían sido generados gracias a los atributos genéticos encontrados en la muestra de ADN, y el algoritmo se habría encargado de crearlos.

El rostro en cuestión era de un varón de piel clara, cabello y ojos castaños, frondosas cejas y sin pecas. Un forense especializado en arte dentro del departamento cambió la fotografía para añadirle un corte de pelo más habitual, propio de un hombre de la calle y le puso un bigote. Siempre usando la descripción que un testigo dio en la época.

En un primer momento, el departamento publicó la cara en un intento de conseguir un reconocimiento de algún ciudadano de los condados de Alameda y Contra Costa de California. No sirvió de nada, y el caso siguió estancado. No fue hasta 3 años después, en 2020, que el departamento (o más bien uno de los detectives) tomó la decisión de que pasaran esta imagen por un software de reconocimiento facial.

BingX exchange confiable de Criptomonedas

En una solicitud de “apoyo analítico” enviada al Centro Regional del Norte de California, dicho detective habló de la situación. “Utilizando el ADN encontrado en la escena del crimen, Parabon Labs reconstruyó los rasgos faciales de un posible sospechoso. […] Tengo una foto del posible sospechoso y me gustaría utilizar la tecnología de reconocimiento facial para identificar a un sospechoso”.

Lo más sorprendente del caso, que ya presenta muchas cuestiones a nivel ético, moral y legal, es que dicho movimiento no fue informado debidamente por el detective. Tanto es así, que este hecho fue sabido gracias a unos registros policiales hackeados por el colectivo Distributed Denial of Secrets. Este es un grupo whistleblower que tiene como principal objetivo que la información de interés público sea completamente accesible. Esta incluye filtraciones, información censurada, etcétera.

El Centro Regional de Inteligencia del Norte de California, que recibió la solicitud del detective, es un centro destinado a facilitar la colaboración entre las distintas autoridades federales que operan en el estado, incluyendo departamentos de policía a nivel local y estatal. No se sabe si atendió debidamente la solicitud del detective. Si bien hay indicios de que podrían haber realizado dicha búsqueda, ni el centro ni el departamento dieron declaraciones.

Todo esto parte de la base de que no existe evidencia científica clara que confirme que efectivamente los métodos de Parabon NanoLabs son confiables para recrear fielmente la cara de una persona mediante ADN. Esta es una compañía centrada específicamente en la genealogía genética forense, dedicada al apoyo a fuerzas de autoridad como el propio departamento mencionado anteriormente.

Queda la palabra de Parabon, que afirma que no solo pueden recrear el color del pelo o de los ojos, sino incluso la piel de una persona. También pueden recrear la forma general de sus caras, y los fenotipos generados por la empresa se usan como base para las representaciones faciales que Parabon acaba enviando a sus clientes. Su metodología no ha sido debidamente revisada por pares, quedando en entredicho su fiabilidad por parte de la comunidad científica.

La sorpresa llega cuando descubrimos que este servicio de recreación facial basada en ADN ha sido ampliamente usado por fuerzas del orden de Estados Unidos. Un servicio lanzado en 2015 y que 8 años después ha servido para generar “decenas de predicciones faciales”, según Wired. De hecho, el medio ha contactado con un buen número de departamentos y agentes que aseguran que esta opción es, como mínimo, digna de consideración.

Usando reconocimiento facial

¿Qué implica usar reconocimiento facial en este caso? Estos casos enlazan directamente a personas que de forma indirecta o directa podrían estar relacionados con estos crímenes, por lo que el uso de no una sino dos tecnologías distintas —una de ellas no verificada— es, como mínimo, cuestionable. Pero las voces contrarias han llegado incluso de la propia Parabon.

Y es que poco después de que se lanzara el servicio de predicción facial en 2015, se preguntó a la directora de bioinformática de Parabon NanoLabs Ellen Greytak sobre la posibilidad de probar herramientas de reconocimiento facial sobre estos rostros generados por fenotipos. Greytak declaró por aquel entonces que este “no es el propósito de las imágenes compuestas”.

Algunos miembros de distintos departamentos de policía de Estados Unidos han hablado sobre las implicaciones que estos métodos tendrían sobre una investigación. Haley Williams, Gerente de comunicaciones del Departamento de Policía de Boise en Idaho, explica que aunque la idea de usar reconocimiento facial con una cara generada por algoritmo dependería de cada caso, “nunca se basaría únicamente en una sola pieza de evidencia”. Solo se usaría “como una herramienta” para encontrar más pistas.

Por otro lado, las justificaciones de los departamentos para usar estos rostros generados por ADN varían. Mientras que algunos se limitan a decir que es una herramienta útil, otros defienden la precisión de estos rostros para el uso de software de reconocimiento facial. El ejemplo claro es el de Andrew Sullivan, sheriff del condado de DeKalb que declara que sí usarían esa información “para desarrollar cualquier pista que tuviéramos para resolver cualquier homicidio”.

La posibilidad de que existan falsos positivos y errores en ambos métodos no ha impedido que algunos detectives defiendan su uso en casos especialmente intrincados. Uno de ellos, anónimo, declara lo siguiente: “Sé que la cara de Parabon no es perfecta, pero ¿por qué no utilizaríamos todas las herramientas disponibles para intentar atrapar a un asesino”?. Y es que estos fenotipos se usan, usualmente, después de haber agotado todas las vías posibles a la hora de encontrar pistas.

Ya existen casos de personas que han sido acusadas por software de manera indebida. Fue el ejemplo de Robert Julian-Borchak Williams, un oficinista en una compañía de suministros automotrices, que en 2020 fue detenido en una investigación que involucró el uso de un algoritmo. El uso deficiente de reconocimiento facial y cuestiones relacionadas con el racismo le valió una falsa acusación, que se reflejó como un acto de abuso policial usando estos software como excusa.

Fuente (s) :

BingX exchange confiable de Criptomonedas

OpenAI actualizó la política de uso para suprimir la prohibición que impedía utilizar su tecnología en tareas “militares y de guerra”. La modificación abre la puerta para que las agencias y divisiones de seguridad utilicen los desarrollos de inteligencia artificial (IA) generativa de la compañía para optimizar sus operaciones.

La nueva política entró en vigor el pasado 10 enero. Antes de esta fecha, las normas de OpenAI calificaban la utilización de sistemas como ChatGPT y GPT-4 en la industria militar y bélica como una actividad de “alto riesgo físico”. La empresa dirigida por Sam Altman aclara que “existen casos de uso de seguridad nacional que se alinean con nuestra misión”.

La empresa dirigida por Sam Altman asegura que existen casos de uso que “se alinean con su misión”.

Sam Altman

La organización aún prohíbe el uso de sus algoritmos de IA para desarrollar armas, vigilar comunicaciones, destruir propiedad y crear cualquier clase de herramienta que produzca algún daño. Niko Feliz, vocero de OpenAI, explicó que el objetivo de la actualización de las políticas es “crear un conjunto de principios universales que sean fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir sistemas GPT personalizados”.

Cripto Casino - Stake
Conoce Stake Cripto Casino

La compañía informó que está trabajando con la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos para diseñar nuevas herramientas de ciberseguridad, y mejorar la protección del software que da soporte a la infraestructura de seguridad del país.

La actualización de las políticas de uso llegan en un momento en el que las fuerzas armadas de todo el mundo han mostrado sus intenciones por incorporar sistemas de inteligencia artificial y aprendizaje automático para optimizar sus estrategias militares. Estados Unidos destaca en la tendencia.

Kathleen Hicks, subsecretaria de defensa de Estados Unidos, dijo al cierre del año pasado que la IA es “una parte clave del enfoque de innovación integral y centrado en los combatientes” de la agencia. Advirtió que la mayoría de los sistemas inteligentes disponibles en el mercado “aún no están lo suficientemente maduros técnicamente para cumplir con nuestros principios éticos de IA”.

OpenAI quiere incursionar en un lucrativo y polémico mercado

OpenAI intenta explorar nuevas oportunidades de negocio alrededor de una industria millonaria. El gasto militar se elevó a 3.7% en 2022 para alcanzar los 2.24 billones de dólares. La cifra es equivalente al 2.2% del Producto Interno Bruto global, de acuerdo con estimaciones del Instituto Internacional de Investigaciones para la Paz de Estocolmo (SIPRI, por sus siglas en inglés). Estados Unidos es la nación que más recursos invierte en temas de defensa con un gasto calculado en 877,000 millones de dólares, tres veces más que la cantidad registrada en China, el segundo país que más dinero destina a tareas militares.

El uso de sistemas basados en inteligencia artificial dentro del sector militar ha despertado preocupación. En noviembre pasado, el Gobierno de Reino Unido publicó un informe en el que enlistó el desarrollo de armas biológicas mortales, ataques automatizados a la ciberseguridad y el diseño de potentes modelos de inteligencia artificial autónomos como principales riesgos del uso de la IA con fines bélicos y de defensa. Existen algunas propuestas que pretenden reducir estas amenazas.

Al cierre del año pasado, Kamala Harris, vicepresidenta de Estados Unidos, presentó una declaración firmada por 31 países que establece límites en el uso militar de la IA. Los firmantes se comprometieron a recurrir a revisiones jurídicas y capacitación para garantizar que la IA militar se ajuste a las leyes internacionales; a desarrollar la tecnología con cautela y transparencia, y a evitar sesgos involuntarios en los sistemas que la emplean. El acuerdo no es jurídicamente vinculante. No obstante, fue calificado como un gran avance para regular su implementación.

Sasha Baker, subsecretaria adjunta de Defensa para Políticas en Estados Unidos, afirmó que el convenio “hace avanzar las normas internacionales sobre el uso militar responsable de la IA y la autonomía, proporciona una base para construir un entendimiento común y crea una comunidad para que todos los Estados intercambien las mejores prácticas”.

El SIPRI proyecta que en 2028 el volumen del mercado asociado a soluciones de IA en el ámbito militar superará los 13,700 millones de dólares. Vincent Boulanin, investigador del instituto, advirtió que “no se trata de una sola tecnología, sino de una característica habilitadora. La IA permite añadir nuevas funciones a las herramientas de guerra para hacerlas potencialmente más eficientes, más baratas, más compactas y más autónomas”.

BingX exchange confiable de Criptomonedas

Fuente (s) :