Estafas de IA

Las estafas con IA van en aumento

21 de septiembre de 2023
por el Equipo SESLOC

Las herramientas de inteligencia artificial (IA) para crear imágenes, vídeos, grabaciones y textos están fácilmente disponibles en línea y son cada vez más populares, y los estafadores las están aprovechando al máximo. A continuación se muestran algunas formas en que los estafadores utilizan la IA:

Clonación de voz

A Estafa de emergencia familiar es una estafa clásica que apuesta por un sentido de urgencia y un atractivo emocional para separarte de tu dinero llamándote y haciéndote pasar por un familiar en crisis. En la versión más común, se hacen pasar por un nieto que llama desde la cárcel y necesitan asistencia financiera inmediata. La suplantación de identidad telefónica existe desde hace algún tiempo, lo que puede permitirles mostrar el número de una cárcel real en su teléfono. Ahora con la ayuda de la IA, Los estafadores han clonado con éxito la voz. del miembro de la familia para agregar una capa extra de autenticidad.

La Comisión Federal de Comercio (FTC) recomienda algunos consejos para protegerse:

  • No confíes en la voz: llama a la persona para confirmar la historia. Si no puede comunicarse con ellos, llame a otras personas que hayan estado en contacto recientemente o que puedan verificar la historia.
  • Establezca una contraseña familiar que pueda solicitar para establecer su identidad por teléfono.
  • Si la persona que llama se hace pasar por alguien de una empresa, institución financiera o funcionario gubernamental, cuelgue y llame al
  • Sea aún más sospechoso si la persona que llama le pide que envíe dinero mediante transferencia bancaria, criptomoneda o tarjeta de regalo; estos métodos hacen que sea extremadamente difícil recuperar su dinero.

ChatGPT

También es informó que los estafadores están utilizando herramientas de inteligencia artificial basadas en texto como Chat GPT para mejorar la credibilidad de los correos electrónicos de phishing. La herramienta puede ayudar a eliminar señales de alerta, como mala gramática y ortografía, e imitar con mayor precisión el uso del idioma nativo. Sin embargo, aún puedes estar atento a estas otras señales de alerta:

  • Solicitud de acción urgente o amenazas.
  • Solicitud de pagos, en particular mediante transferencia bancaria, criptomonedas o tarjeta regalo.
  • Solicitud de información personal confidencial, como datos de inicio de sesión bancario, información de tarjeta de crédito o número de seguro social.
  • Presenta una oferta que es demasiado buena para ser verdad.
  • En caso de duda, utilice otro medio de comunicación para contactar a la persona para confirmar.

Además, los estafadores han desarrollado clones de Chat GPT con la esperanza de aprovecharse de las personas interesadas en jugar con herramientas de inteligencia artificial. Estos clones pueden requerir dinero para su uso o pueden estar infectados con malware o software malicioso diseñado para extraer secretamente sus datos. Si planea utilizar una herramienta de inteligencia artificial, asegúrese de acceder a una legítima.

Comparta este artículo

Dele Me Gusta a esta publicación