بازنگری در توسعه هوش مصنوعی با نگاهی از منظر بهره‌وری

بازنگری در توسعه هوش مصنوعی با نگاهی از منظر بهره‌وری

فناوری‌های هوش مصنوعی با سرعتی چشمگیر در حال بازآفرینی صنایع جهانی هستند. اما در سال ۲۰۲۵، لازم است به یکی از مهم‌ترین پرسش‌های پیش رو توجه کنیم:

آیا می‌توانیم هوش مصنوعی را در مقیاس وسیع گسترش دهیم بدون آنکه آثار منفی زیست‌محیطی را نیز افزایش دهیم؟

آثار زیست‌محیطی این فناوری، واقعی و رو به رشد هستند. با ادغام مدل‌های هوش مصنوعی مولد در عملیات روزمره سازمان‌ها، نیاز به انرژی به‌سرعت در حال افزایش است. طبق گزارش آژانس بین‌المللی انرژی (IEA)، انتظار می‌رود تا سال ۲۰۳۰ مصرف برق مراکز داده بیش از دو برابر شده و به حدود ۹۴۵ تراوات‌ساعت برسد؛ رقمی بیش از کل مصرف برق کشور ژاپن در زمان حاضر.

این وضعیت، تناقض هوش مصنوعی را آشکار می‌کند: فناوری‌ای که می‌تواند از طریق نوآوری‌هایی مانند گداخت هسته‌ای و شبکه‌های هوشمند، آینده‌ای کم‌کربن ایجاد کند، در حال حاضر ممکن است خود عاملی برای تشدید مشکلات زیست‌محیطی باشد.

در HPE معتقدیم راهی هوشمندانه وجود دارد؛ مسیری که نیازی به انتخاب بین نوآوری دیجیتال و مسئولیت‌پذیری زیست‌محیطی نداشته باشد. هوش مصنوعی می‌تواند نیرویی مثبت باشد، مشروط بر اینکه با در نظر گرفتن اصول پایداری، طراحی، پیاده‌سازی و مقیاس‌دهی شود.

مفهوم کلیدی: بهره‌وری (نه فقط مصرف انرژی)

امروزه بحث پایداری در هوش مصنوعی غالباً از زاویه تأمین انرژی شروع می‌شود، اما مهم‌تر آن است که در ابتدا زیرساخت‌ها و راهکارهای اجرایی بهینه شوند.

فناوری‌هایی مانند خنک‌سازی مایع مستقیم (Direct Liquid Cooling – DLC) برای سامانه‌های محاسباتی با کارایی بالا ضروری شده‌اند، به‌ویژه با رشد سریع توان مصرفی پردازنده‌های گرافیکی (GPU) مدرن.
در میان ۱۰ ابررایانه برتر جهان، هفت سیستم بر پایه معماری خنک‌سازی مایع ۱۰۰٪ بدون فن HPE Cray Supercomputing EX اجرا می‌شوند.

در سطح زیرساخت، سرورهای نسل جدید مانند سرور  HPE ProLiant DL380 Gen12 بهره‌وری چشمگیری دارند. این سرورها نسبت به نسل هشتم (Gen8) تا ۲۶ برابر عملکرد بهتری ارائه داده و تا ۸۷ درصد در هزینه‌های برق و خنک‌سازی صرفه‌جویی می‌کنند. جایگزینی زیرساخت‌های قدیمی با Gen12 می‌تواند اثر کربنی مراکز داده را تا ۹۶ درصد کاهش دهد.

هوش مصنوعی هوشمند برای پایداری

هوش مصنوعی می‌تواند موتور محرکه‌ای برای پایداری در صنایع مختلف باشد. HPE با دولت‌ها، مؤسسات پژوهشی و آزمایشگاه‌های ملی همکاری می‌کند تا از هوش مصنوعی در زمینه‌هایی نظیر مدل‌سازی اقلیم، توسعه انرژی پاک و بهینه‌سازی شبکه‌های برق بهره ببرد.

همزمان، ابزارهایی مانند HPE Sustainability Insight Center (که اکنون با OpsRamp ادغام شده) امکان مشاهده دقیق اثرات زیست‌محیطی در زیرساخت‌های سازمانی را، از لبه تا چندابر (multi-cloud)، فراهم می‌کنند.

این سطح از شفافیت، به سازمان‌ها این توانایی را می‌دهد که در تصمیم‌گیری‌های خود بین عملکرد، هزینه و اثرات زیست‌محیطی، تعادل آگاهانه‌ای برقرار کنند.

طراحی برای لبه (Edge)

با رشد پذیرش هوش مصنوعی، سازمان‌ها در حال بازنگری در محل و شیوه اجرای مدل‌های خود هستند.
اگرچه آموزش مدل‌های بزرگ همچنان توجه زیادی را جلب کرده است، اما پیش‌بینی می‌شود که فرآیند استنتاج (Inferencing) — جایی که هوش مصنوعی دانش خود را به کار می‌گیرد — تا سال ۲۰۲۸، سه برابر بیش از آموزش، انرژی مصرف کند.

راهکار؟ توسعه مدل‌های کوچکتر و هدفمندتر که بتوانند در محیط‌های لبه (Edge) به‌صورت بهینه اجرا شوند. این رویکرد، نیاز به انتقال حجم بالای داده از طریق شبکه را کاهش داده و به صرفه‌جویی در مصرف انرژی کمک می‌کند.

همچنین ابزارهایی مانند HPE Aruba Networking AIOps با بهینه‌سازی تنظیمات شبکه همتا به همتا (peer-to-peer) و کاهش ترافیک غیرضروری، ظرفیت شبکه را تا ۲۵ درصد افزایش می‌دهند و بهره‌وری انرژی را بهبود می‌بخشند.

ساخت هوش مصنوعی مسئولانه

برای اینکه هوش مصنوعی به جای تهدید، به کاتالیزوری برای پایداری تبدیل شود، باید مسئولانه طراحی شود:

  • انتخاب ابزار و مدل مناسب برای هر کاربرد
  • بهینه‌سازی اندازه نرم‌افزار و مدل‌ها
  • طراحی زیرساخت‌ها با در نظر گرفتن بهره‌وری انرژی
  • و مهم‌تر از همه، ارزیابی دقیق هزینه‌های اجتماعی و زیست‌محیطی هر پروژه

امروز می‌دانیم چطور هزینه‌های مالی پروژه‌ها را کاهش دهیم، اما هنوز نیازمند توسعه روش‌هایی برای کاهش اثرات کربنی هستیم.

image_pdfدانلود PDF
برای امتیاز به این نوشته کلیک کنید!
[کل: 0 میانگین: 0]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *