جدول محتوا
در حالیکه شرکتهای پیشرو در حال رقابت برای ساخت رایانههای کوانتومی کاربردی هستند، Hewlett Packard Enterprise (HPE) و NVIDIA با همکاری مشترک، در حال توسعه روشهایی نوآورانه برای مقیاسپذیری رایانش کوانتومی از طریق زیرساختهای محاسباتی قدرتمند (HPC) هستند.
چالش اصلی: چگونه رایانههای کوانتومی را به مقیاس کاربردی برسانیم؟
اگرچه شرکتهایی مانند گوگل در آزمایشهای اخیر خود موفق به ساخت یک qubit منطقی اصلاحشده از خطا شدند، اما رسیدن به مقیاس موردنیاز برای کاربردهایی مانند علوم مواد یا شیمی هنوز فاصله زیادی دارد — جایی که ممکن است به دهها میلیون qubit نیاز داشته باشیم.
برای رسیدن به چنین سطحی از مقیاسپذیری، صرف پیشرفت در سختافزار کوانتومی کافی نیست. باید کل سامانه — از یکپارچهسازی سیستمها تا نرمافزار و شبکه — بهینه شود.
چرا رایانش کوانتومی توزیعشده اهمیت دارد؟
پردازندههای کوانتومی (QPUها) در آیندهی نزدیک نمیتوانند میلیونها کیوبیت را در خود جای دهند. بنابراین راهحل، شبکهسازی چندین QPU کوچکتر برای تشکیل یک سیستم یکپارچه است — مشابه پردازش موازی در رایانش کلاسیک.
«رسیدن به مقیاس واقعی در رایانش کوانتومی، نیازمند رایانش توزیعشده و یکپارچهسازی عمیق با HPC در سطوح مختلف است.»
– مسعود محسنی، فناور ارشد در Hewlett Packard Labs
با اینکه اتصال مستقیم QPUها از طریق «اینترکانکتهای کوانتومی» هنوز در مراحل اولیه توسعه است، در حال حاضر میتوان از شبکههای سریع HPC مانند Slingshot استفاده کرد — البته به شرطی که روشهایی مقیاسپذیر برای توزیع وظایف کوانتومی از طریق ارتباطات کلاسیک وجود داشته باشد.
معرفی تکنیک نوآورانه: Adaptive Circuit Knitting
یکی از چالشهای اصلی در توزیع وظایف کوانتومی، وجود درهمتنیدگی کوانتومی (Quantum Entanglement) بین کیوبیتهاست — یعنی ارتباطی که لزوماً تابع فاصله فیزیکی نیست. برای توزیع مؤثر وظایف باید بدانیم که کدام ارتباطات ضروریاند و کدامها را میتوان نادیده گرفت.
برای حل این مسئله، HPE روشهایی بهنام Adaptive Circuit Knitting (بافت تطبیقی مدارهای کوانتومی) توسعه داده است. این تکنیکها قادرند در حین انجام محاسبات کوانتومی، بهصورت پویا نقاط بهینه برای تقسیم وظایف را شناسایی کنند.
نتیجه؟ تا ۱۰۰ تا ۱۰۰۰ برابر کاهش در سربار محاسباتی نسبت به روشهای ساده تقسیمبندی، و فراهمسازی بستر برای شبیهسازی توزیعشده کوانتومی با استفاده از فقط ارتباطات کلاسیک بین QPUها.
همکاری با NVIDIA برای آزمایش در مقیاس بالا
HPE برای پیادهسازی این تکنیکها با NVIDIA همکاری کرده و از پلتفرم CUDA-Q برای شبیهسازی مدارهای کوانتومی بهره گرفته است. CUDA-Q امکان اجرای شبیهسازیهای بسیار سریع را با استفاده از GPUهای قدرتمند فراهم میکند و محیطی مناسب برای جریانهای کاری ترکیبی (کوانتومی + کلاسیک) ایجاد کرده است.
در جریان رویداد GTC، این دو شرکت شبیهسازیهایی از سیستمهای اسپینی کوانتومی ۴۰-کیوبیتی را روی ابررایانه HPE Cray EX (پرلموتر) انجام دادند. این شبیهسازیها در مدت میانگین ۲۴ دقیقه، اما با استفاده از ۲۵۶ نود و ۱۰۲۴ کارت گرافیک NVIDIA A100 انجام شدند — کاری که نزدیک به بیشینه توان شبیهسازی کوانتومی با رایانش کلاسیک محسوب میشود.
«بافت تطبیقی مدارها، مسیری امیدوارکننده برای تحقق رایانش کوانتومی در مقیاس بزرگ است — با توزیع وظایف روی دستگاههای کوچکتر، مشابه پردازش موازی در رایانش کلاسیک.»
– الیکا کیوسِوا، مدیر مهندسی الگوریتم کوانتومی در NVIDIA
گام بعدی: آیندهای ترکیبی از رایانش کلاسیک و کوانتومی
همکاری HPE و NVIDIA نشان میدهد که با ترکیب HPC و تکنیکهای هوشمندانه مانند Adaptive Circuit Knitting میتوان از سختافزارهای موجود امروزی برای شبیهسازی و حتی اجرای رایانش کوانتومی توزیعشده بهره برد — بدون وابستگی به فناوریهای آینده مانند اینترکانکتهای کوانتومی.
این گامها ما را بهسمت آیندهای هدایت میکند که در آن، رایانههای کوانتومی مقیاسپذیر و کاربردی به کمک سختافزارهای کلاسیک و کوانتومی شبکهشده، امکانپذیر خواهند بود.