Vistas:0 Autor:Editor del sitio Hora de publicación: 2024-10-16 Origen:Sitio
El New Yorker informó recientemente que ChatGPT consume más de 500.000 kilovatios-hora de electricidad al día, 17.000 veces el consumo medio de un hogar en Estados Unidos. Elon · Musk también ha predicho que la escasez de energía se convertirá en un factor importante que restringirá el desarrollo de la IA en los próximos dos años. Sin embargo, ¿es realmente así?
Las opiniones actuales sobre el consumo de energía de la IA se basan en gran medida en estimaciones, no en mediciones reales. Un informe publicado por la Fundación de Innovación y Tecnología de la Información de los Estados Unidos (ITIF) sostiene que los estudios individuales inexactos sobrestiman significativamente el consumo de energía de la IA, lo que puede afectar negativamente el desarrollo de la IA y obstaculizar el potencial de la IA para contribuir a la conservación de energía y la reducción de emisiones, así como a abordar los desafíos ambientales. Los actores de la industria piden una mayor transparencia en la industria y una reducción en el uso indebido de la tecnología de inteligencia artificial.
Desafíos de la evaluación del consumo de energía de la IA:
Hay muchos factores que influyen.
ITIF es un grupo de expertos sin fines de lucro con sede en Washington, Estados Unidos. En el informe, 'Revisitando las preocupaciones sobre el consumo de energía de la IA', el ITIF señala que el consumo de energía y las emisiones de carbono de los diferentes modelos de IA varían mucho y están influenciados por una serie de factores, incluido el diseño de chips, los sistemas de refrigeración, el diseño del centro de datos, tecnología de software, carga de trabajo, fuentes de energía y más.
Como resultado, las conclusiones de diferentes estudios han divergido a la hora de estimar el consumo de energía de la IA. Un estudio preimpreso publicado en 2019 por un equipo de la Universidad de Massachusetts Amherst estimó que BERT, entonces el modelo de lenguaje grande líder de Google, emitió alrededor de 1,438 libras de dióxido de carbono (652 kilogramos) durante 79 horas de entrenamiento, el equivalente a un pasajero que volaba entre Nueva York y San Francisco. El estudio también llegó a conclusiones similares sobre tecnologías como la búsqueda de arquitectura neuronal (NAS) por IA. El artículo ha sido citado casi 3000 veces en Google Scholar y ha recibido mucha cobertura mediática.
Sin embargo, las empresas e instituciones dedicadas a la investigación y el desarrollo de la IA han llegado a conclusiones muy diferentes. En 2021, Google y la Universidad de California en Berkeley publicaron un estudio preimpreso que encontró que el estudio sobreestimaba las emisiones de carbono de la IA de Google en un factor de 88. Pero el estudio recibió mucha menos atención que el primero, con solo alrededor de 500 citas. ...
Debido a la tendencia de los medios y del público a centrarse en información negativa, es más probable que se difundan investigaciones con conclusiones sorprendentes. Las palabras y los hechos de celebridades de la industria tecnológica también están amplificando la información de que 'la IA consume mucha energía', y Musk ha predicho que 'los factores que restringen el desarrollo de la IA cambiarán de la 'falta de silicio' a 'falta de electricidad''; El director ejecutivo de Open AI, Sam·Altman, también dijo que la IA consumirá más electricidad e invertirá mucho en la fusión nuclear.
Evaluar el consumo de energía de la IA
de una perspectiva de ciclo de vida completo
Según el informe del ITIF, gran parte de la investigación y las políticas actuales que se centran en el entrenamiento de la IA son importantes, pero varios estudios han demostrado que la IA consume más energía en el proceso de inferencia, es decir, el proceso en el que las personas utilizan la IA para generar resultados. Además, el consumo de energía de diferentes modelos de IA para diferentes tipos de tareas de inferencia varía mucho. Por ejemplo, si se calculan 1000 solicitudes, el consumo de energía de la tarea de clasificación de imágenes es de 0,007 kWh, mientras que el consumo de energía de la tarea de generación de imágenes es de 2,907 kWh.
Los autores del informe señalan que el entrenamiento en IA es un evento único y su uso es un proceso a largo plazo, y que la discusión sobre el consumo de energía de la IA debería centrarse no en el crecimiento explosivo, sino en los impactos a largo plazo. Y, desde la perspectiva de la historia de la tecnología, el crecimiento de la IA y su consumo de energía estará limitado por los siguientes cuatro factores:
1.El costo de la construcción de infraestructura limitará el rápido crecimiento de la IA
La conclusión de que 'ChatGPT consume más de 500.000 kWh de electricidad al día' proviene de una estimación de Alex de Vries, autor del blog de tecnología Digiconomist·· Alex de Vries. De · Fries también ha predicho que, en el peor de los casos, el uso de electricidad mediante IA de Google será comparable al de toda Irlanda, alcanzando los 29,3 TWh (teravatios hora) al año. Pero también señaló que para alcanzar esta escala, Google necesitaría invertir 100 mil millones de dólares en chips, además de miles de millones de dólares en operaciones de centros de datos y facturas de electricidad. Si los costos operativos de la IA siguen siendo altos, las empresas comerciales con fines de lucro naturalmente desacelerarán y reducirán su inversión.
2.Existe un efecto marginal en el crecimiento del rendimiento de la IA
La IA ha logrado avances en muchas áreas en los últimos años, lo que significa que pronto podría llegar a un cuello de botella. Los beneficios del desarrollo y operación de modelos más grandes serán cada vez menores y será más difícil mejorar la precisión. Por lo tanto, optimizar los modelos de IA puede ser la próxima dirección de investigación y desarrollo.
3.Las mejoras de rendimiento en software y hardware reducirán el consumo de energía de la IA
Se espera que las optimizaciones en los modelos de IA, así como los avances en la tecnología de hardware, reduzcan el consumo de energía de la IA. Según un estudio publicado en la revista Science, entre 2010 y 2018, la cantidad de computación en los centros de datos globales aumentó un 550% y el espacio de almacenamiento aumentó un 2400%, pero el consumo de energía aumentó solo un 6%. Las innovaciones en hardware, tecnología de virtualización y diseño de centros de datos han mejorado la eficiencia energética y han hecho posible la computación en la nube a escala.
De manera similar, se espera que técnicas como la poda, la cuantificación y la destilación conduzcan a mejores algoritmos que harán que los modelos de IA sean más rápidos y energéticamente más eficientes. El equipo de investigación de Google y la Universidad de California, Berkeley, señaló que gracias a varios avances tecnológicos, la proporción del consumo de energía de la IA dentro de Google se ha mantenido estable en los últimos años, aunque el aprendizaje automático ha crecido hasta el 70% ~ 80% de el coste computacional.
4.La aplicación de la IA reducirá en última instancia las emisiones de carbono de alguna manera
En general, cuando la gente reemplaza las cartas tradicionales por el correo electrónico y va al cine con DVD o canales de streaming, la digitalización de estas actividades reduce las emisiones de carbono. Se espera que la IA siga desempeñando un papel en este sentido, por ejemplo, mejorando la experiencia de las videollamadas y trasladando más reuniones a ubicaciones remotas. Además, la tecnología de inteligencia artificial se puede utilizar para distribuir redes eléctricas y analizar datos climáticos, ayudando así a combatir el cambio climático.
Evaluar con precisión el consumo de energía de
IA para promover el sano desarrollo del campo
Históricamente, las preocupaciones sobre las emisiones de carbono de la IA no son nuevas. En los años 90 se predijo que la mitad de la generación eléctrica futura se utilizaría para alimentar la actividad de Internet; En el momento de la llegada del streaming, se expresaron sentimientos similares. Hoy sabemos que ninguno de estos temores se ha materializado. Según el informe del ITIF, apresurarse a controlar la IA sin una comprensión completa de sus problemas de consumo de energía puede obstaculizar las mejoras en el rendimiento de la IA y limitar su potencial. Por ejemplo, permitir que la IA elimine los prejuicios y el discurso de odio y evite generar información dañina requiere más inferencia para aumentar el consumo de energía.
El informe recomienda que, en respuesta a las preocupaciones del público sobre el consumo de energía de la IA, los responsables de la formulación de políticas deberían:
(1) Desarrollar estándares correspondientes para hacer que el consumo de energía de los modelos de IA sea abierto y transparente;
(2) alentar a la industria a divulgar de manera proactiva la información sobre el consumo de energía de los modelos de IA para que el público pueda tomar decisiones informadas;
(3) considerar las consecuencias no deseadas de las regulaciones de IA sobre el uso de energía;
(4) Utilice la IA para descarbonizar las operaciones gubernamentales.
Algunas organizaciones ya están presionando para que se divulgue la IA. En diciembre de 2023, la Unión Europea aprobó la Ley de Inteligencia Artificial, la primera ley reguladora de IA del mundo. El proyecto de ley insta a los desarrolladores de IA a comprometerse a hacer que sus modelos sean energéticamente eficientes y sostenibles, y exige la divulgación de información en consecuencia.
De · también pidió la divulgación de información y quería limitar el desarrollo de la IA de manera oportuna, tal como lo hizo con la tecnología de las criptomonedas. 'El desarrollo de tecnologías emergentes como la IA y la cadena de bloques anterior, acompañado de mucho frenesí y miedo a perderse algo (FOMO), a menudo conduce a aplicaciones que son de poco beneficio para el usuario final', señala el blog Digiconomist. '
Y en el informe del New Yorker, la famosa periodista científica Elizabeth Kolbert (Elizabeth Kolbert) dijo: 'Cada vez que ChatGPT escupe un mensaje (o escribe un ensayo de la escuela secundaria para alguien), se necesitan muchos cálculos'. Se estima que ChatGPT responde a unos 200 millones de solicitudes al día y consume más de 500.000 kWh de electricidad. En otras palabras, la respuesta a la crisis energética de la IA puede comenzar limitando el uso de la IA para los puestos de trabajo.
contenido está vacío!