GeekZilla
Image default
Geekzilla » ¡No caigas! Tu próxima cita en línea podría ser ChatGPT
AvastNoticiasTech

¡No caigas! Tu próxima cita en línea podría ser ChatGPT

Geekzillo, aunque parezca una obra de ciencia ficción, Avast alerta que tu próxima cita en línea podría ser ChatGPT. Así es, los fraudes, ataques y estafas siguen evolucionando gracias a la IA generativa. Es por esto que debes tener cuidado incluso a la hora de relacionarte con ‘’personas’’ en la web. Te compartimos, de parte de Avast, las formas en que ChatGPT puede jugar con nuestros sentimientos.

cita en línea ChatGPT

Según Avast, tu próxima cita en línea podría ser ChatGPT

Los investigadores de Avast han descubierto recientemente otra forma en la que la IA está jugando con nuestras emociones: una herramienta para estafar en citas que utiliza ChatGPT para aumentar la credibilidad de las conversaciones a la que el equipo ha apodado “LoveGPT”. Un paso más allá del tradicional catfish y del perfil falso, esta herramienta entabla conversación con sus víctimas, elude las medidas de seguridad y es capaz de producir textos auténticos y emotivos.   Aunque la herramienta en sí existe desde hace más de una década, acaba de integrar recientemente la tecnología de OpenAI, lo que le confiere otro nivel de potencia.

¿Un bot o una persona?

Hasta la fecha, LoveGPT se ha dirigido a las siguientes plataformas. La pregunta es: ¿estás saliendo con una persona o con un bot de ChatGPT?

  • Ashley Madison 
  • Badoo 
  • Bumble 
  • Craigslist 
  • DuyenSo 
  • Facebook Citas 
  • likeyou.vn 
  • MeetMe 
  • OkCupid 
  • Plenty of Fish (POF) 
  • Tagged 
  • Tinder 
  • Zoosk 

“Resulta inquietante el uso que hace esta herramienta del ChatGPT generando conversaciones que suenan inquietamente auténticas” señala Luis Corrons, Security Evangelist de Avast. “Puede hablar sobre tus películas favoritas, sentir empatía por tus luchas diarias e incluso compartir recuerdos ficticios que te conmuevan. No sólo imita la interacción humana; la elabora, creando conversaciones tan reales que incluso los más exigentes podrían ser engañados”.

Medidas para proteger tu corazón de la palabrería de LoveGPT | ChatGPT: tu próxima cita en línea

  1. Confía, pero verifica: si una conversación parece demasiado perfecta o un perfil demasiado pulido, investiga un poco. Una búsqueda rápida de imágenes inversas puede revelar si esa imagen de perfil se tomó prestada de otro lugar. 
  2. Mantente alerta: los bots como LoveGPT prosperan gracias a nuestro deseo de conexión. Ten cuidado con los perfiles que parecen demasiado ansiosos por compartir historias personales o solicitar información personal. Podría ser ChatGPT. 
  3. Prioriza la seguridad : nunca compartas datos personales como la dirección de tu casa, tu lugar de trabajo o información financiera con alguien que acabas de conocer online.

El panorama digital está en constante evolución y, a medida que herramientas como LoveGPT se vuelven más sofisticadas, la línea entre la realidad y el engaño seguirá difuminándose. Pero si nos mantenemos informados y atentos, podemos navegar con seguridad en el mundo de las citas online. “Recuerda, la conexión humana es insustituible y ningún chatbot, por avanzado que sea, puede replicar la profundidad de las emociones humanas” recuerda Corrons.

Puedes conocer más información en el blog de consumo de Avast o más detalles técnicos en su blog Decoded

También te puede interesar: Avast: el riesgo de ciberamenazas alcanza su nivel más alto en tres años

Y tú, geekzillo, ¿has sido víctima de alguna estafa? ¿Qué opinas de la forma en que las citas en línea podrían ser ni más ni menos que ChatGPT? ¿Te gustaría conocer más detalles al respecto? No olvides que puedes compartirnos tus opiniones en los comentarios.

Por último, puedes seguir la pista de esta y más noticias en T3 LatamTechRadar México. Además de nuestros podcasts con Oye 89.7: Top Tech y Top Gaming en Spotify.

Artículos relacionados

Este sitio web utiliza cookies para mejorar su experiencia. Asumimos que está de acuerdo al seguir navegando. Aceptar Leer más