Todavía me acuerdo cuando nació Incapto Café, una startup basada en Barcelona cuya propuesta de valor quería competir contra el todopoderoso Nespresso, ofreciendo como valor añadido una suscripción al café en grano con el argumento que era mucho más sostenible que las cápsulas de aluminio de la marca que anuncia George Clooney.
Tiempo después, hablando con uno de sus fundadores, me decía que habían cambiado su estrategia de marketing porque a pesar de que era evidente esa ventaja competitiva, el mercado no la percibía con suficiente fuerza como para cambiar sus hábitos.
¿quieres cambiar de hábitos?
La sostenibilidad, como concepto general, es deseada y anhelada por todos, pero el momento de la verdad es cuando debes cambiar tus hábitos en pro de una mejora de la misma renunciando a algo que hasta ahora te comportaba un beneficio (e incluso placer).
El argumento podríamos aplicarlo a la Inteligencia Artificial, y más en concreto a la generativa. ¿Cuán sostenibles son soluciones como ChatGPT, Gemini o Copilot? ¿Qué consumo energético tienen? ¿Cuántos recursos de comen para que podamos usarla o, dicho de otra forma, existen soluciones alternativas más sostenibles?
¿somos conscientes del consumo de recursos que implica la IA?
Ante esta pregunta le formulé a Chat Gpt la siguiente cuestión:
“Me gustaría saber cual es el coste económico que supone para Open AI cada vez que realizo una consulta a chat gpt”
Y muy educadamente me respondió:
El coste económico de operar ChatGPT para OpenAI puede variar significativamente dependiendo de varios factores, incluyendo el modelo específico de GPT utilizado (por ejemplo, GPT-3.5, GPT-4), la longitud y complejidad de las solicitudes y respuestas, y la infraestructura subyacente. OpenAI no ha publicado detalles exactos sobre los costos operativos por consulta individual a ChatGPT, pero podemos inferir algunos aspectos generales sobre los costos involucrados.
Costos de Computación: La ejecución de modelos de IA grandes como GPT requiere una cantidad significativa de recursos de computación, generalmente proporcionados por GPUs (Unidades de Procesamiento Gráfico) o TPUs (Unidades de Procesamiento Tensorial) especializadas. Estos recursos son costosos no solo en términos de hardware, sino también en el consumo de energía necesaria para su funcionamiento y enfriamiento.
Costos de Desarrollo y Mantenimiento: Además de los costos directos de computación, OpenAI invierte en el desarrollo continuo de estos modelos, incluyendo investigación, entrenamiento de modelos, y personal para mantener y mejorar los sistemas.
Costos de Infraestructura: Los costos de almacenamiento de datos, redes, y otros aspectos de la infraestructura de TI también contribuyen al costo operativo total.
Costos de Ancho de Banda: Transmitir solicitudes y respuestas entre los usuarios y los servidores de OpenAI incurre en costos de ancho de banda.
Si bien es difícil estimar el costo exacto por consulta sin datos específicos de OpenAI, análisis de terceros han sugerido que el costo puede variar desde fracciones de centavo hasta algunos centavos por interacción, dependiendo de la complejidad y duración de la sesión. Es importante tener en cuenta que estos costos pueden disminuir con el tiempo a medida que la tecnología se vuelve más eficiente y las economías de escala reducen los costos operativos por consulta.
Parece que no es barato usar esta tecnología
Siempre existe otra mirada
Algunos estaréis pensando en que mi inicio del artículo de hoy tiene un tono demagógico y quizás hasta podéis poner encima de la mesa argumentos como que el tren o la aviación son tecnologías de alto impacto climático, pero a su vez han permitido avances impensables para la humanidad. Y seguramente sea cierto.
Existen corrientes de opinión que abogan por la IA como un socio clave en el desarrollo de la sostenibildiad. Escribe Marina Obba en ethic que
En tiempos donde el cumplimiento de los Objetivos de Desarrollo Sostenible (ODS) debe ser veloz, la inteligencia artificial se posiciona como una herramienta óptima para garantizar una transición efectiva”,
alegando que la velocidad y precisión que nos ofrece esta tecnología nos permitirá avanzar mucho más rápido en pro de un plantea más sostenible.
Visiones catastrofistas
También tenemos las miradas catastrofistas, las que nos alteran que el crecimiento (imparable) de la IA generará una nueva escasez en el mundo: la electricidad.
Decía Elon Musk en Bosch Connected World Conference,
El número de ordenadores de inteligencia artificial que entran en línea parece multiplicarse por 10 cada seis meses... Entonces, era muy fácil predecir que la próxima escasez serán los transformadores reductores de tensión. Tienes que alimentar de energía a estas cosas. Si tienes 100-300 kilovoltios que salen de una compañía eléctrica y tienen que bajar hasta seis voltios, eso es bajar mucho la tensión. Mi chiste no muy gracioso es que se necesitan transformadores para hacer funcionar transformadores... Entonces, la próxima escasez será de electricidad. No podrán encontrar suficiente electricidad para hacer funcionar todos los chips. Creo que el año que viene no encontrarán electricidad suficiente para hacer funcionar todos los chips.
Aunque siempre hay quien trata de ponerle honestidad a los titulares, como los coautores de la newsletter semianalysis que después de estudiar con profundidad los consumos electrícos de los últimos años nos dicen que, efectivamente, el auge de la IA acelerará rápidamente el crecimiento del consumo energético de los centros de datos, pero el uso energético mundial de los centros de datos se mantendrá muy por debajo de la hipótesis catastrofista del 24% de la generación total de energía a corto plazo. Ellos estiman que la IA impulsará a los centros de datos a utilizar el 4,5% de la generación mundial de energía en 2030.
La necesidad de energía abundante y barata, y de añadir rápidamente capacidad a la red eléctrica sin dejar de cumplir los compromisos de emisiones de carbono de los hiperescaladores, junto con las restricciones a la exportación de chips, limitará las regiones y países que pueden satisfacer el aumento de la demanda de los centros de datos de IA.
Algunos países y regiones, como Estados Unidos, podrán responder de forma flexible con una baja intensidad de carbono en la red eléctrica, fuentes de combustible de bajo coste y estabilidad en el suministro, mientras que otros, como Europa, se verán limitados por las realidades geopolíticas y las restricciones normativas estructurales en materia de energía. Otros simplemente aumentarán su capacidad sin preocuparse por el impacto medioambiental.
A ver si al final, como casi siempre, esto será un tema de geopolítica e intereses que se nos escapan al común de los mortales.
Solo quiero abrir la brecha de la consciencia, es evidente que este tema puede generar multiples opiniones y visiones, pero para mi la evidencia es que quizás no siempre somos conscientes de lo que sucede cuando le damos al intro después de escribir una consulta o una petición a chatGPT… ¿tu que crees?
Y, como siempre, Seguimos!