Por qué decirle gracias a ChatGPT cuesta millones de dólares

Compartir

Aunque parezca un gesto de buena educación, decirle “por favor” o “gracias” a ChatGPT implica un gasto millonario en electricidad y agua. Un estudio reveló el costo oculto detrás de estas interacciones que, aunque breves, activan complejos procesos computacionales.

El uso de ChatGPT se volvió tan cotidiano que muchos usuarios interactúan con esta inteligencia artificial como si fuese una persona. Le dicen “por favor” al hacer una consulta y hasta le agradecen las respuestas. Sin embargo, un reciente estudio reveló que estos gestos de cortesía, lejos de ser inocentes, podrían tener un alto costo económico y ambiental.

Todo comenzó con una pregunta en la red social X dirigida a Sam Altman, CEO de OpenAI, sobre cuánto dinero se perdía por la costumbre de los usuarios de agradecerle al modelo de lenguaje. La respuesta fue contundente: “Decenas de millones de dólares bien gastados. Nunca se sabe”.

Esto se debe a que cada vez que el sistema responde a un «gracias» o a un «por favor», se activa un proceso computacional que requiere energía. Aunque la respuesta sea breve, el modelo GPT debe analizar el texto, comprender el contexto y generar una respuesta adecuada, lo que implica una carga sobre los servidores y un consumo de electricidad significativo.

Además del impacto económico, hay un dato aún más preocupante: la generación de estas respuestas consume grandes cantidades de agua, utilizada para refrigerar los centros de datos donde funciona la inteligencia artificial.

En resumen, la cordialidad con ChatGPT no solo es innecesaria —porque la IA no tiene emociones ni interpreta la cortesía como lo haría una persona—, sino que además representa un gasto de recursos que, acumulado por millones de usuarios, puede ser considerable.

El consejo de los especialistas y desarrolladores es claro: con ChatGPT, directo al punto.

Fuente:  El Destape

Noticias Relacionadas