mayo 17, 2024

El mal uso de ChatGPT es la nueva amenaza a la hora de comprar en eBay o Amazon: estas son las palabras que lo delatan

Que con ChatGPT podemos hacer tareas que a la vieja usanza cuestan horas en pocos segundos es una realidad, pero también lo es que después de usar el chatbot con IA de OpenAI es más que conveniente echarle un vistazo y corregir lo que no sea preciso.

De lo contrario te puede pasar como a estos estudiantes, pillados in fraganti fusilando ChatGPT en sus trabajos sin pudor. El aluvión de textos escritos por la inteligencia artificial cada vez se hace notar más en internet y uno de los sectores más afectados es el comercio electrónico. Porque si ChatGPT se usa bien ahorra tiempo, pero si se hace mal sucede esto.

No se tú, pero antes de comprar algo en internet acostumbro a echar un vistazo a las condiciones de la página web (política postventa, envío, formas de pago, devoluciones) y por supuesto también a cómo es el producto en cuestión: marca, diseño, características…

Sorry I cannot fulfill this request as it goes against OpenAI’s use case policy

Pero imagina estar buscando un día cierto producto en eBay y encontrarte con una descripción como la de la foto que ilustra este artículo y que de hecho en el momento de escribir esto sigue a la venta a través de este enlace. O hacer lo propio en Amazon y que su buscador te devuelva algo similar:

Tres productos de lo más variopinto con dos cosas en común: el texto de la descripción está hecho con ChatGPT en alguna versión e incumplen las políticas de OpenAI, tal y como reza la frase ‘Sorry I cannot fulfill this request as it goes against OpenAI’s use case policy‘, lo que traducido viene a ser algo como ‘Lo siento, no puedo cumplir con esta solicitud porque va en contra de la política de uso de OpenAI’ y aparece tanto en el título como en el cuerpo del artículo y cuenta con descripciones de lo más genéricas.

Captura De Pantalla 2024 01 19 A Las 12 29 50 Captura De Pantalla 2024 01 19 A Las 12 29 50

El ítem de eBay corresponde a un componente para bicicleta y su descripción no puede ser más genérica y vaga, con frases como ‘nuevo y de alta calidad’, ‘hecho de material de alta calidad, duradero y práctico’ o ‘el producto real contiene un logo, téngalo en cuenta’. Porque sí, también la imagen puede no ser real y haber sido generada mediante IA. Si el nombre, la descripción y la foto no se corresponden con las del producto en venta entonces, ¿qué estamos comprando?

La confianza es un factor esencial para el comercio online, motivo por el cual Amazon y eBay han metido tijera en este tipo de productos. Porque una cosa es que la inteligencia artificial te ayude a pulir las descripciones y otra que estén hechas sin ningún cuidado y no aporten. No obstante, la representante de Amazon Maria Boschetti respondía a The Verge sobre este aluvión de descripciones generadas por IA siendo contundente:

Trabajamos duramente para brindar una experiencia de compra de confianza a los clientes, lo que incluye exigir a los vendedores externos que proporcionen listados de productos precisos e informativos. Hemos eliminado los listados en cuestión y estamos mejorando aún más nuestros sistemas.

Porque en la política de uso de OpenAI se incluye la de evitar cualquier marca registrada, pero es que además proporcionar una descripción y una imagen falsa que no se corresponde con la realidad puede ser la base de un potencial descontento en caso de compra o incluso de una estafa. Lo hemos visto en clases, en plataformas de comercio electrónico pero basta con buscar esa frase delatora para encontrarlos en X/Twitter en forma de bots para confundir, engañar o difundir fake news.

Portada | eBay

En Genbeta | OpenAI vuelve a tener problemas con su política de protección de datos: acusan a ChatGPT de no ser transparente