รู้หรือไม่ว่าทุกคำถามหรือข้อสงสัยที่เราคุยกับ AI ไม่ว่าจะแลพตฟอร์มไหน ทุกแพลตฟอร์มล้วนใช้พลังงานในการค้นหาคำตอบมาให้เรา
การใช้พลังงานอย่างมหาศาลนี้ คือสิ่งที่หลายฝ่ายมีความกังวล เพราะยิ่ง AI ได้รับความนิยมเพิ่มมากขึ้นเท่าไหร่ก็จะส่งผลกับเรื่องสิ่งแวดล้อมมากขึ้นเท่านั้น
วันนี้เรามีตัวเลขที่น่าสนใจของการใช้พลังงานในการตอบคำถามของแพลตฟอร์ม ChatGPT มาให้ดูกัน
1. ChatGPT มีคนใช้งานวันละกี่ครั้ง?
ไม่มีตัวเลขที่แน่นอนเปิดเผยต่อสาธารณะ แต่คาดว่ามีหลายสิบล้านถึงหลายร้อยล้านคำขอต่อวัน เนื่องจาก ChatGPT ถูกใช้งานอย่างแพร่หลายในแพลตฟอร์มต่างๆ
2. ChatGPT ใช้พลังงานต่อคำถามเท่าไหร่?
การใช้พลังงานของโมเดลภาษาขนาดใหญ่ (LLM) อย่าง GPT-4 อยู่ในระดับสูงพอสมควร
ข้อมูลจากการวิจัยระบุว่า แต่ละคำตอบของโมเดล AI อาจใช้พลังงานประมาณ 0.1 - 10 วัตต์-ชั่วโมง (Wh) ขึ้นอยู่กับความซับซ้อนของโมเดลและการประมวลผล ตัวเลขนี้เปรียบเทียบได้กับ การชาร์จโทรศัพท์มือถือ 1 ครั้ง (~5 Wh) หรือ ใช้ไมโครเวฟประมาณ 10-60 วินาที
3. พลังงานที่ใช้ทั้งหมดต่อวัน?
สมมติว่า ChatGPT ได้รับ 100 ล้านคำขอ ต่อวัน และใช้พลังงาน 0.5 Wh ต่อคำขอ หรือ 50 MWh หรือเทียบได้กับการใช้พลังงาน 1,666 ครัวเรือนต่อวัน (พลังงานที่บ้าน 1 หลังใช้ ในสหรัฐฯ ประมาณ 30 kWh/วัน)

4. คำถามยากง่ายก็มีผลต่อการใช้พลังงานของ ChatGPT
ระดับความซับซ้อนของการประมวลผลมีผลโดยตรงต่อปริมาณพลังงานที่ใช้ไป โดยสามารถแบ่งออกเป็น 3 ปัจจัย คือ
1. จำนวน Token ที่ใช้ (ความยาวของคำถามและคำตอบ)
คำถามสั้น ตอบสั้น → ใช้พลังงานน้อย เช่น "1+1 เท่ากับเท่าไหร่?" → โมเดลสามารถตอบได้ทันที "2"
คำถามยาว ตอบยาว → ใช้พลังงานมาก เช่น "ช่วยอธิบายทฤษฎีสัมพัทธภาพของไอน์สไตน์ให้เข้าใจง่ายๆ" → ต้องใช้การคำนวณและสร้างคำตอบที่ยาวขึ้น
2. ความซับซ้อนของการประมวลผล
"สภาพอากาศที่กรุงเทพฯ วันนี้เป็นยังไง?" → อาจต้องไปดึงข้อมูลจากแหล่งอื่น (ใช้ API หรือเว็บ) → ใช้พลังงานเพิ่มขึ้น
"ช่วยสร้างโค้ด Python สำหรับวิเคราะห์ข้อมูลขนาดใหญ่" → ต้องใช้ทรัพยากรในการวิเคราะห์ syntax และโครงสร้างโค้ด → ใช้พลังงานสูง
3. การใช้โมเดลขนาดต่างๆ
ถ้าคำถามง่าย ระบบอาจใช้ โมเดลเล็ก (เช่น GPT-3.5) ซึ่งใช้พลังงานน้อย
ถ้าคำถามยากหรือซับซ้อน เช่น การให้เหตุผลเชิงลึกหรือการแก้ปัญหาทางคณิตศาสตร์ อาจต้องใช้ GPT-4 หรือเวอร์ชันที่ใหญ่ขึ้น ซึ่งใช้พลังงานสูงกว่า
4. คำถามประเภทไหนใช้พลังงานมากที่สุด?
จากข้อมูลที่มีอยู่ โมเดล AI มักใช้พลังงานมากที่สุดกับคำถามในหมวดหมู่ต่อไปนี้:
1. คำถามที่ต้องสร้างเนื้อหาเยอะ (Long-Form Content Generation) เช่น "ช่วยแต่งนิยายแนวแฟนตาซี 10 หน้า พร้อมบทสนทนา" หรือ "เขียนเรียงความ 2,000 คำเกี่ยวกับการเปลี่ยนแปลงสภาพภูมิอากาศ"
ทำไมใช้พลังงานเยอะ?
- โมเดลต้องสร้างข้อความจำนวนมาก และต้องคงบริบทให้สอดคล้องตลอดเนื้อหา
- ใช้ Token เยอะ ทำให้ต้องประมวลผลนาน
2. คำถามที่ต้องใช้เหตุผลและตรรกะเชิงลึก (Complex Reasoning & Logic) เช่น "ช่วยวิเคราะห์นโยบายเศรษฐกิจของสหรัฐฯ ใน 10 ปีที่ผ่านมา พร้อมข้อดีข้อเสีย", "อธิบายว่าทำไมทฤษฎีสัมพัทธภาพของไอน์สไตน์ถึงเปลี่ยนมุมมองของเราต่อแรงโน้มถ่วง"
ทำไมใช้พลังงานเยอะ?
- โมเดลต้องคิดเชิงวิเคราะห์และสังเคราะห์ข้อมูล
- ต้องคำนวณหรือเชื่อมโยงข้อมูลที่เกี่ยวข้อง
3. คำถามที่ต้องเขียนโค้ดและแก้ปัญหาทางคณิตศาสตร์ขั้นสูง เช่น "เขียนอัลกอริธึม Machine Learning สำหรับจัดกลุ่มข้อมูลใน Python" หรือ "สร้างเกม 2D ง่ายๆ โดยใช้ JavaScript และ HTML"
ทำไมใช้พลังงานเยอะ?
- โมเดลต้องสร้างโค้ดที่มีโครงสร้างซับซ้อน
- ต้องตรวจสอบความถูกต้องของตรรกะ และอาจต้องรันโค้ดจำลองในบางแพลตฟอร์ม
4. คำถามที่ต้องดึงข้อมูลจากภายนอก (Real-Time Data Retrieval) เช่น "หุ้น Tesla วันนี้ขึ้นหรือลง?" หรือ
"พยากรณ์อากาศของกรุงเทพฯ ในอีก 7 วันข้างหน้า"
ทำไมใช้พลังงานเยอะ?
- ต้องดึงข้อมูลจากแหล่งภายนอก เช่น API หรือเว็บไซต์
- อาจต้องประมวลผลและสรุปข้อมูลให้กระชับ
5. คำถามที่ต้องจำลองบทสนทนาและบุคลิกภาพ (Roleplaying & Simulation) เช่น "แสดงบทสนทนาระหว่างอัศวินกับมังกรที่พูดกันเรื่องสภาพอากาศ" หรือ "เล่นเป็น AI ยุคอนาคตที่ถูกปลุกขึ้นมาในปี 3000 และบรรยายโลกที่เห็น"
ทำไมใช้พลังงานเยอะ?
- ต้องรักษาบุคลิกภาพของตัวละคร และต้องคงบริบทและตอบสนองให้เหมือนจริง
- อาจต้องอ้างอิงข้อมูลจากหลายแหล่ง