سه شنبه 28 بهمن 1404
Search
در آستانه رشد مراکز داده و هوش مصنوعی در کشور

سهم ۴۵ درصدی سرمایش در مصرف انرژی مراکز داده / ضرورت تدوین استاندارد ملی بهره‌وری انرژی و آب

این گزارش تحلیلی با هدف بررسی وضعیت کنونی و ترسیم چشم‌انداز بهینه‌سازی مصرف انرژی و آب در مراکز داده، با تمرکز ویژه بر شرایط کشور تهیه شده است. مراکز داده به‌عنوان زیرساخت‌های حیاتی اقتصاد دیجیتال، با رشد سریع فناوری‌های مبتنی بر داده و هوش مصنوعی، سهم فزاینده‌ای از مصرف انرژی و آب را به خود اختصاص می‌دهند. طبق پژوهش‌های بین‌المللی، در یک مرکز داده معمولی، تنها حدود ۳۰ درصد انرژی صرف تجهیزات فناوری اطلاعات می‌شود، در حالی که سیستم‌های سرمایش با سهمی در حدود ۴۵ درصد، بزرگ‌ترین مصرف‌کننده انرژی به‌شمار می‌روند. ازاین‌رو، تمرکز بر بهبود طراحی و بهره‌برداری سیستم‌های خنک‌کاری، کلید اصلی کاهش مصرف منابع در این مراکز است.

در این گزارش چه می‌خوانید؟

  • چرا تنها ۳۰٪ انرژی مراکز داده صرف پردازش می‌شود و ۴۵٪ آن به سیستم‌های سرمایش اختصاص دارد؟
  • میانگین جهانی PUE چرا 1.58 است و چگونه شرکت‌هایی مانند Google و Microsoft به محدوده 1.1 رسیده‌اند؟
  • آیا اقلیم‌های سرد و خشک ایران می‌توانند مزیت رقابتی برای توسعه مراکز داده کم‌مصرف ایجاد کنند؟
  • و در غیاب استاندارد ملی، استفاده از چارچوب ASHRAE 90.4 چه خلأیی را پوشش می‌دهد؟

این گزارش با اتکا به شاخص‌های PUE و WUE، مقایسه داده‌های جهانی و تحلیل اقلیمی کشور، تصویری روشن از شکاف بهره‌وری، مسیرهای فناورانه پیش‌رو و الزامات سیاست‌گذاری در توسعه زیرساخت‌های دیجیتال ایران ارائه می‌دهد.

در این گزارش، ابتدا مفهوم مرکز داده، انواع آن از منظر مالکیت، بهره‌برداری و سطح دسترس‌پذیری تشریح شده است. سپس با معرفی شاخص‌های کلیدی ارزیابی عملکرد شامل ضریب بهره‌وری انرژی (PUE)، ضریب بهره‌وری آب (WUE)، شاخص بار مکانیکی (MLC) و شاخص تلفات الکتریکی (ELC)، چهارچوبی برای مقایسه و ارزیابی مراکز داده ارائه شده است. بررسی داده‌های جهانی نشان می‌دهد که اگرچه شرکت‌های پیشرو فناوری به مقادیر بسیار پایین PUE و WUE دست یافته‌اند، اما میانگین جهانی همچنان فاصله معناداری با این اعداد و مقادیر پیشنهادی سازمان ملل برای مراکز داده جدید و در حال بهره‌برداری دارد.

بخش دیگری از گزارش به مرور روش‌های مختلف خنک‌کاری مراکز داده اختصاص یافته است؛ از سامانه‌های متداول هواپایه تا روش‌های پیشرفته مایع‌پایه شامل صفحه سرد، جریان دوفاز و سرمایش غرقابی. نتایج مطالعات نشان می‌دهد که با افزایش توان نامی تجهیزات، به‌ویژه در کاربردهای هوش مصنوعی، استفاده از روش‌های سرمایش مایع نه‌تنها اجتناب‌ناپذیر، بلکه از منظر انرژی و آب نیز مقرون‌به‌صرفه‌تر است. در عین حال، ترکیب هوشمندانه روش‌ها متناسب با اقلیم، دسترسی به آب و توان و سطح آلودگی هوا، بهترین عملکرد را به همراه خواهد داشت.

در ادامه، وضعیت مراکز داده در ایران بررسی شده‌است. با وجود رشد سریع تعداد این مراکز در کشور، استاندارد الزام‌آوری برای میزان مصرف انرژی و آب در این نوع ساختمان‌ها وجود ندارد. بر این اساس، پیشنهاد می‌شود در کوتاه‌مدت از استاندارد ASHRAE 90.4 به‌عنوان مرجع ارزیابی استفاده شود و در میان‌مدت، تدوین استاندارد ملی الزام‌آور برای مصرف انرژی و آب مراکز داده در دستور کار قرار گیرد.

 همچنین مجموعه‌ای از راهکارهای عملی برای کاهش مصرف انرژی در مراکز داده فعال در کشور در دو دسته غیرانرژی‌بر (مانند بهینه‌سازی معماری فضا، چینش رک‌ها، عایق‌بندی و حذف فضاهای پرت) و انرژی‌بر (مانند زون‌بندی حرارتی، سرمایش طبیعی، استفاده از اکونومایزر، بازیافت گرما و تولید انرژی در محل) پیشنهاد شده است.

در جمع‌بندی، پیشنهاد می‌شود با توجه به تنوع اقلیمی کشور، مراکز داده جدید در مناطق سرد و خشک‌ مانند مرکز استان خراسان رضوی، آذربایجان شرقی و اراک جانمایی شود. چنانچه این مراکز جدید در خارج کلان‌شهرها ساخته‌شوند، با توجه به کمتر بودن سطح آلودگی هوا در این مناطق، می‌توان با استفاده از سرمایش طبیعی، هزینه‌های خنک‌کاری را کاهش داد.

مرکز داده به چه معناست و چه انواعی دارد؟

مرکز داده[1] به واحدی اطلاق می‌شود که تجهیزات حساس مرتبط با فناوری اطلاعات[2] مانند انواع سرورها، تجهیزات شبکه و واحدهای ذخیره‌سازی اطلاعات را در خود جای می‌دهد. این مراکز جهت پردازش اطلاعات، میزبانی از نرم‌افزارهای مختلف و پشتیبانی از خدمات ارتباطی استفاده می‌شوند[1]. اولین مرکز داده با تعریف جدید آن در سال 2002 و توسط شرکت آمازون جهت تسهیل پردازش ابری راه‌اندازی شد[2].

مراکز داده را می‌توان بر حسب نوع مالکیت و بهره‌برداری از آن‌ها مطابق شکل 1 تقسیم‌بندی کرد.

انواع مراکز داده از نظر مالکیت و بهره‌برداری

مالکیت و بهره‌برداری از یک مرکز سازمانی توسط یک سازمان خاص انجام شده و مرکز صرفاً برای پشتیبانی از نیازهای زیرساختی داخلی سازمان مورد استفاده قرار می‌گیرد. این نوع واحدها عموماً با یک هدف کاری مشخص ساخته می‌شوند و اغلب در نزدیکی محل سازمان جانمایی می‌شوند.

مرکز داده اشتراکی تأسیساتی است که در آن فضای فیزیکی، توان (برق) و زیرساخت سرمایشی مشترک برای پشتیبانی از تجهیزات فناوری اطلاعات چندین شرکت وجود دارد. در این نوع مرکز، مالک زیرساخت را به بهره‌برداران اجاره می‌دهد.

مراکز داده ابری به مجموعه‌ای از تأسیسات گفته می‌شود که توسط شرکت‌های ارائه‌دهنده خدمات ابری اداره می‌شوند. این مراکز با پشتیبانی از امکان دسترسی برخط، به کسب‌وکارها اجازه می‌دهند تا زیرساخت‌های مورد نیاز خود را متناسب با نیاز سازمان مقیاس‌پذیر کنند. تفاوت مرکز ابری و اشتراکی در آن است که عموماً دسترسی فیزیکی به تأسیسات اشتراکی برای بهره‌برداران امکان‌پذیر است حال آن که استفاده‌کنندگان از تأسیسات ابری صرفاً دسترسی برخط به این نوع از واحدها دارند.

مراکز مرزی به آن دسته از مراکز داده اطلاق می‌شود که به نسبت سایر گروه‌ها کوچکتر بوده، در نزدیکی کاربران جانمایی می‌شوند و هدف از آن‌ها کاهش تأخیر دسترسی به داده‌ها و منابع پردازشی است.

همچنین مراکز داده را می‌توان از نظر دسترس‌پذیری[3] به چهار گروه طبقه‌بندی کرد. دسته اول (حالت پایه) دارای سیستم UPS، سیستم سرمایش اختصاصی و ژنراتور می‌باشد. در دسته دوم ظرفیت اضافی[4] برای تجهیزات مذکور در نظر گرفته می‌شود (تجهیزات با ضریب اطمینان بالاتر طراحی می‌شوند). ظرفیت تجهیزات در دسته سوم به‌گونه‌ای طراحی می‌شود که امکان اجرای عملیات تعمیر بدون ایجاد اختلال در عملکرد سیستم امکان‌پذیر باشد. در نهایت و در دسته چهارم، دو یا چند سری از تجهیزات مربوط به توان اضطراری جانمایی می‌شود تا در صورت هرگونه اختلال در یکی از این سیستم‌ها، عملکرد پردازشی سرورها به هیچ عنوان دچار مشکل نشود[3].

چرا توجه به روش خنک‌کاری مرکز داده حائز اهمیت است؟

در حالی که هدف اصلی یک مرکز داده، پردازش، ذخیره‌سازی و پشتیبانی از فرآیندهای مرتبط با فناوری اطلاعات است، تحقیقات علمی نشان داده‌اند که تنها 30% از انرژی مصرفی در این واحدها به این اهداف اختصاص دارد. این در حالی است که سیستم سرمایش با مصرف 45% از انرژی، بزرگترین مصرف‌کننده انرژی در این مراکز به شمار می‌رود (شکل 2)[4].

به صورت کلی و طبق پیشنهاد اشری[1]، دمای فضای داخلی یک مرکز داده می‌بایست بین 18 تا 27 درجه سانتی‌گراد نگهداری شود. همچنین، میزان رطوبت نسبی محیط برای کاهش احتمال تخلیه الکترواستاتیک می‌بایست بین 8 تا 45 درصد باشد. رطوبت نسبی بالا در حضور برخی آلاینده‌ها مانند اوزون، نیتروژن دی‌اکسید، گوگرد دی‌اکسید، کلر و هیدروژن سولفید[2] می‌تواند منجر به خوردگی مس شود[5].

جهت کاهش ریسک خرابی زودرس تجهیزات، کمیته علمی مربوطه در سازمان اشری پیشنهاد می‌کند تا فضای داخلی مراکز داده در سطح 8 تمیزی طبق تعریف ایزو 14644 نگهداری شوند. این سطح از تمیزی هوا نیازمند استفاده از فیلترهای MERV 8 به بالاست[6].

شکل 2 میزان مصرف انرژی بخش‌های مختلف یک مرکز داده[4]

کمیت‌های مهم برای بررسی عملکرد مراکز داده از نظر مصرف انرژی و آب کدامند؟

انواعکمیت‌ها با تعاریف مختلف برای بررسی و مقایسه مراکز داده مورد استفاده قرار می‌گیرند. مهم‌ترین آن‌ها به ترتیب ضریب بهره‌وری مصرف انرژی[1] (PUE)، ضریب بهره‌وری آب[2] (WUE)، شاخص بار مکانیکی[3] (MLC) و شاخص تلفات الکتریکی[4] (ELC) است. تعریف ضریب بهره‌وری انرژی و آب در خانواده استاندارد ایزو 30134 آمده است[7]. تعاریف مربوط به شاخص بار مکانیکی و شاخص تلفات الکتریکی در استاندارد اشری 4/90 آمده است[8]. تعریف هریک از این کمیت‌ها بنا به مراجع ذکر شده به شرح زیر است:

در رابطه با کمیت‌های فوق، دقت به موارد زیر الزامی است:

  1. ضریب بهره‌وری انرژی شامل کل انرژی مصرفی واحد مرکز داده است در حالی که شاخص بار مکانیکی صرفاً انرژی مصرفی برای تجهیزات مکانیکی اعم از چیلر، فن، پمپ، هواساز و غیره را شامل می‌شود. در هنگام طراحی یک مرکز داده جدید، اطلاعات مربوط به توان تجهیزات مکانیکی در دسترس هستند (انتخاب طراح)، درحالی که برای به دست آوردن کل انرژی مصرفی یک واحد مرکز داده در مرحله طراحی می‌بایست اطلاعات دقیقی از چگونگی عملکرد و جزئیات تک‌تک تجهیزات موجود در این واحد اطلاع دقیق کسب کرد.
  2. ضریب بهره‌وری انرژی برابر با یک حالت ایدئال است و بدان معناست که تمام انرژی ورودی به یک مرکز داده صرف تجهیزات فناوری اطلاعات شده‌است لذا مقدار این کمیت برای یک مرکز داده همواره بیش از یک است.
  3. میزان مصرف آب و انرژی علاوه بر نوع طراحی مرکز داده، اتلاف­های انتقال توان و سایر کمیت‌های درون ساختمان، به شرایط اقلیمی محل مرکز داده نیز وابسته است.
  4. سه کمیت مرتبط با انرژی یعنی ضریب بهره‌وری انرژی، شاخص بار مکانیکی و شاخص تلفات الکتریکی همگی بدون بعد هستند درحالی که ضریب بهره‌وری آب در واحد لیتر بر کیلووات-ساعت گزارش می‌شود.
  5. مخرج کسر در تعاریف فوق یکسان است و برابر با انرژی مصرفی برای واحدهای فناوری اطلاعات است (بخشی که در شکل 2، 30 درصد را به خود اختصاص داده است).

مقدار میانگین ضریب بهره‌‌وری آب و انرژی در دنیا چقدر است؟

طبق گزارش شرکت گوگل، میانگین ضریب بهره‌وری انرژی در میان مراکز داده موجود در دنیا برابر با 58/1 می‌باشد[9]. این در حالی است که شرکت‌های گوگل، آمازون، ماکروسافت و متا ادعا می‌کنند ضریب بهره‌وری انرژی در مراکز داده این شرکت‌ها به ترتیب برابر با 09/1 ، 15/1، 16/1 و 08/1 است [9], [10], [11], [12]. میانگین ضریب بهره‌وری آب در دنیا در حال حاضر برابر با 8/1 لیتر به ازای کلووات-ساعت است. اعداد منتشر شده از طرف شرکت‌های آمازون، ماکروسافت و متا ضریب بهره‌وری آب در مراکز داده مربوط به این شرکت‌ها را به ترتیب برابر با 15/0، 30/0 و 19/0 لیتر به ازای کلووات-ساعت اعلام کرده‌اند.[10], [11], [12]

دستورالعمل سازمان ملل برای مراکز داده که در تابستان سال 2025 منتشر شده‌است پیشنهاد می‌کند که مقدار ضریب بهره‌وری انرژی (PUE) برای مراکز داده در حال کار 5/1 و برای مراکز جدید 4/1 تعیین شود. همچنین این مرجع مقدار 5/1 لیتر به ازای کیلووات-ساعت را برای ضریب بهره‌وری آب (WUE) پیشنهاد می‌کند[13].

انواع روش‌های سرمایش این مراکز چیست؟

برای خنک‌کاری مراکز داده از روش‌های مختلفی می‌توان استفاده کرد. تقسیم‌بندی این روش‌ها به صورت شکل 3 پیشنهاد نگارنده است:

شکل 3 انواع روش‌های خنک‌کاری مراکز داده

الف. هواپایه:

مقصود از سامانه هواپایه آن است که سیال منتقل‌کننده حرارت از داخل فضای مرکز داده به بیرون، هوا است. این انتقال می‌تواند با استفاده از چرخه تبرید مکانیکی[1] و با استفاده از تجهیزاتی مانند چیلر هواخنک یا آب‌خنک، هواساز، فن و برج خنک‌کننده (در صورتی که از چیلر آب‌خنک استفاده شود) و یا با استفاده از تجهیزات انبساط مستقیم[2] مانند انواع کولرگازی و یا کولرهای پنجره‌ای صورت گیرد.

تمام مکانیکی: به استفاده صرف از تجهیزات تبرید تراکمی یا چیلرهای جذبی اطلاق می‌شود. سرمایش در این روش صرفاً بر عهده این تجهیزات است.

سرمایش طبیعی: به سیستم خنک‌کاری اطلاق می‌شود که در صورت مطلوب بودن دما و رطوبت هوای خارج از ساختمان، هوای محیط پیرامون ساختمان را به صورت مستقیم و یا غیرمستقیم (از طریق یک مبدل حرارتی واسط) به فضای داخلی مرکز داده تزریق کرده و از این طریق گرمای حاصل از فعالیت تجهیزات فناوری اطلاعات را به خارج ساختمان منتقل می‌کند. به‌کارگیری کامل این نوع سیستم خنک‌کاری (بدون استفاده چرخه تبرید به صورت کمکی) تنها در مناطق جغرافیایی محدودی امکان‌پذیر است که شرایط دمایی هوای خارج در بیشتر ایام سال برای خنک‌سازی مناسب باشد.

سیستم سرمایش طبیعی غیرمستقیم با قطع ارتباط هوای بیرون با داخل فضای مرکز داده، به کنترل وضعیت آلاینده‌ها درون فضای مرکز کمک می‌کند.

تبخیری: دمای هوای بیرون ساختمان با استفاده از گرمای نهان تبخیر کاهش می‌یابد. سپس، هوای خنک شده برای کاهش دمای مرکز داده مورد استفاده قرار می‌گیرد. روش مستقیم تبخیری عملکردی مشابه با کولرهای آبی یا ایرواشرها[3] دارد. در روش غیرمستقیم، هوای تزریق‌شونده به فضای داخلی با رطوبت ناشی از تبخیر آب مستقیماً تبادل حرارت ندارد. روش غیرمستقیم به دلیل عدم افزایش رطوبت نسبی محیط داخلی مناسب‌تر است.

ب. مایع پایه:

در این دسته روش، سیال اصلی منتقل‌کننده حرارت، یک سیال در فاز مایع است.

روش صفحه سرد[1]: تجهیزات حرارت را با سیال از طریق مجموعه‌ای از فین‌ها تبادل کرده، حرارت از این طریق به سیال منتقل می‌شود. گرچه در این سیستم‌ها سیال با تجهیزات تماس مستقیم ندارد اما جهت از بین بردن ریسک اتصالی تجهیزات الکتریکی، در این نوع از خنک‌کاری به جای آب، از مبردهای رایج در سیستم‌های سرمایشی استفاده می‌شود[14] (شکل 4).

شکل 4 نمونه‌ای از سرمایش صفحه سرد [15]

جریان دوفاز[1]: امکان تبادل حرارت سیال در دمای ثابت (نقطه تبخیر) با تجهیزات الکتریکی و کاهش تنش حرارتی این تجهیزات از مهم‌ترین مزایای استفاده از این روش در مقایسه با سایر روش‌ها است. روش لوله گرمایی[2] و ترموسیفون[3] هردو بر مبنای تبخیر سیال در ناحیه گرم (سمت پردازنده) و تحویل این گرما به ناحیه سرد (کندانسور یا مبدل واسط) عمل می‌کنند.

روش غرقابی[4]: به نوعی از سرمایش تجهیزات الکترونیک اطلاق می‌شود که طی آن، تجهیز کاملاً درون سیال فرو می‌رود و حرارت تولیدی تجهیزات به صورت مستقیم (بی‌واسطه – بدون مبدل حرارتی، فین یا صفحه جداکننده) به سیال منتقل شده و سیال با تبخیر خود، این حرارت را به نقطه کندانسور منتقل می‌کند. چنانچه ذیل این فرآیند، سیال تغییر فاز بدهد (از مایع به گاز و بالعکس)، به آن غرقابی دوفاز و چنانچه سیال صرفاً دچار تغییر دما شود و تبدیل فاز صورت نگیرد، به آن غرقابی تک فاز گفته می‌شود. تفاوت روش غرقابی با جریان دوفاز در وجود تماس بی‌واسطه مابین سیال و تجهیزات است. بدیهی است سیال مورد استفاده در روش غرقابی نباید رسانای الکتریکی باشد لذا به جای استفاده از آب یا سایر هادی‌های الکتریکی از انواع مبردها و روغن‌های حرارتی استفاده می‌شود.

ترکیبی: در بسیاری از موارد اجراشده در سطح دنیا، ترکیبی از روش‌های فوق با توجه به موقعیت جغرافیایی، میزان دسترسی به توان و منابع آبی، میزان آلودگی هوای محیط (برای روش‌هایی که از هوای پیرامون ساختمان در آن استفاده می‌شود) و هزینه‌های مرتبط با آن، استفاده می‌شود.

دستورالعمل اشری پیشنهاد می‌کند که چنانچه توان نامی هریک از تجهیزات فناوری اطلاعات مورد استفاده کمتر از 200 وات باشد از روش‌های هواپایه و برای تجهیزات با ظرفیت بیش از 400 وات از روش‌های سرمایش مایع استفاده شود[5]. طبق گزارش دسامبر 2024 پژوهشگاه برکلی آمریکا[5]، میانگین توان نامی سرورهای معمولی با دوپردازنده در این سال برابر با 600 وات گزارش شده‌است. این در حالی است که توان نامی یک تجهیز با دو پردازنده گرافیکی[6] مورد استفاده برای فعالیت‌های مرتبط با هوش مصنوعی برابر با 2000 وات ثبت شده‌است. این اعداد نشان می‌دهد که جهت حرکت به سمت فناوری هوش مصنوعی و با توجه به میزان توان مورد نیاز این تجهیزات، استفاده از روش‌های خنک‌کاری پیشرفته الزامی است[16].

ضریب بهره‌وری آب و انرژی برای روش‌های مختلف سرمایش چقدر است؟

شکل 5 مقدار ضرایب بهره‌وری آب و انرژی را برای روش‌های مختلف توضیح داده شده نشان می‌دهد[17]. توجه شود که محور افقی لگاریتمی است. توجه شود که شکل زیر تفاوت‌های استفاده از تجهیزات مختلف در شرایط اقلیمی متفاوت را نشان نمی‌دهد. نکاتی درباره این شکل:

  1. استفاده از چیلرهای آب‌خنک ضریب بهره‌وری آب را به شدت افزایش می‌دهد. آب‌برترین روش‌ها در این شکل (سمت راست) همگی از چیلر آب‌خنک استفاده می‌کنند.
  2. استفاده از چیلر هواخنک و تجهیزات انبساط مستقیم (مانند کولر گازی)، انرژی‌برترین روش خنک‎‌کاری مرکز داده است.
  3. استفاده از سرمایش طبیعی همراه در کنار چیلر هواخنک (متوازی­الاضلاع سبزرنگ)، میزان مصرف انرژی را به شدت کاهش داده و می‌تواند بر میزان مصرف آب نیز تأثیرگذاری مثبت داشته باشد.
شکل 5 ضریب بهره‌وری آب و انرژی برای روش‌های مختلف سرمایش مرکز داده

استفاده از روش‌های سرمایش ‍‍پیشرفته چه مزایایی برای بهره‌برداران این مراکز دارد؟

در کنار کاهش مصرف انرژی و آب با به‌کارگیری روش‌های پیشرفته‌ی خنک‌کاری، این فناوری‌ها آثار جانبی مثبتی نیز بر عملکرد و دوام تجهیزات الکترونیکی دارند. به عنوان نمونه، یکنواختی دما در مرکز داده سبب می‌شود تجهیزات فناوری اطلاعات تنش حرارتی کمتری را تجربه کرده و در نتیجه طول عمر مفید آن‌ها افزایش یابد. از سوی دیگر، خروج دما و رطوبت نسبی محیط از محدوده‌های تعیین‌شده در استانداردها می‌تواند احتمال بروز تخلیه الکترواستاتیکی، جرقه و خرابی تجهیزات را افزایش دهد.

به‌کارگیری تجهیزات پیشرفته‌تر خنک‌سازی به کاهش نیاز به تعمیر و نگهداری منجر می‌شود که این امر نه‌تنها هزینه‌های عملیاتی را کاهش می‌دهد و احتمال بروز مشکلات حرارتی را کم می‌کند، بلکه با حذف ترددهای غیرضروری نیروهای فنی، ریسک ضربه، تماس ناخواسته و آسیب فیزیکی به تجهیزات را نیز کاهش می‌دهد.

علاوه بر این، سیستم‌های پیشرفته‌ی سرمایش معمولاً سطح آلودگی صوتی (نویز) در محیط را کاهش می‌دهند. از آنجا که نویز نشانه ارتعاش اجزای مکانیکی است، وجود ارتعاش در محیط می‌تواند در بلندمدت تأثیر منفی بر عملکرد و پایداری تجهیزات فناوری اطلاعات داشته باشد[18].

چه استانداردهایی در حوزه آب و انرژی مراکز داده وجود دارد؟

تنها استاندارد موجود برای بررسی عملکرد مراکز داده در حال کار و طراحی مراکز داده جدید در حال حاضر استاندارد اشری 4/90 است. این استاندارد با استفاده از شاخص بار مکانیکی و شاخص تلفات الکتریکی، حدود مجازی برای هریک از این دو کمیت ارائه می‌کند. شکل 5 از نسخه 2022 این استاندارد، حدود شاخص بار مکانیکی را برای اقلیم‌های مختلف نشان می‌دهد. شاخص تلفات مکانیکی وابسته به اقلیم نیست و برای مراکز کوچکتر از 100 کیلووات در حالت عملکرد با ظرفیت کامل 142/0 و برای مراکز بزرگتر از آن 11/0 می‌باشد.

نسخه 2025 این استاندارد هم‌اکنون منتشر شده اما مؤلف نتوانست نسخه‌ای از آن به دست آورد. در توضیحات مربوط به نسخه جدید آمده است که دامنه کاربرد استاندارد در نسخه جدید به مسائل مربوط به انتشار کربن و کاهش میزان مصرف آب گسترش یافته است[19].

شکل 5 حدود شاخص بار مکانیکی در اقلیم‌های مختلف بر مبنای نسخه 2022 استاندارد اشری 90/4

جهت استفاده از این استاندارد در ایران می‌بایست وضعیت آب و هوایی مناطق مختلف کشور طبق استاندارد اشری بررسی شود. اشراقی و همکاران [20] در سال 2021 با استفاده از داده‌های آب و هوایی 82 مرکز هواشناسی سراسر کشور نقشه شکل 6 را تهیه کرده‌اند. در این سیستم طبقه‌بندی، شماره‌ها بیانگر منطقه دمایی از صفر (گرمترین) تا ۸ (سردترین) و حروف بیانگر منطقه رطوبتی به صورت A(مرطوب)، B(خشک) و C (ساحلی) وجود دارد است.

هرچه دمای محیط در طول سال سردتر باشد (شماره‌های بزرگتر)، امکان استفاده از هوای بیرون در روش سرمایش طبیعی هواپایه بیشتر است که باعث کاهش مصرف انرژی تجهیزات خنک‌کننده مکانیکی می‌باشد. همزمان، درصورتی که میزان رطوبت محیط بالا باشد (مانند منطقه ساحلی دریای خزر)، نیاز به رطوبت‌زدایی از فضای داخلی مرکز داده وجود خواهد داشت که مستلزم استفاده از تجهیزات انرژی‌بر است.

به‌طور خلاصه، جانمایی مراکز داده در مناطق سردسیر (اعداد بزرگتر) و خشک (B) مانند مرکز استان خراسان رضوی (مشهد و تربت حیدریه)، غرب سمنان (شاهرود)، اراک، تبریز، میانه و مراغه (منطقه 4B) در شکل زیر پیشنهاد می‌شود.

شکل 6 نقشه اقلیمی کشور بر مبنای تقسیمات آب و هوایی اشری

مراکز داده در ایران چه وضعیتی دارند؟

طبق گزارش مرکز پژوهش‌های مجلس، در سال 1397 تعداد 115 مرکز داده در سراسر کشور وجود داشته است. این گزارش برآورد می‌کند که در سال 1405 تعداد این مرکز به بیش از 300 واحد خواهد رسید. همچنین معاون تنظیم‌گری و توسعه سکوهای دیجیتال وزارت ارتباطات و فناوری اطلاعات در تاریخ 20 مهرماه 1404 خبر از بررسی وضعیت استانداردهای فنی و تخصصی 110 مرکز داده در سراسر کشور را داد[21]. شایان ذکر است که در این خبر به‌طور صریح اشاره‌ای نشده است که آیا میزان مصرف انرژی نیز در زمره‌ی شاخص‌های مورد بررسی قرار گرفته است یا خیر.

جست‌وجوی نویسنده برای یافتن اطلاعات دقیق درباره‌ی روش‌های خنک‌کاری به‌کاررفته در این مراکز نتیجه‌ای در بر نداشت. با این حال، بر اساس بررسی تصاویر منتشرشده در اینترنت از این مراکز، می‌توان حدس زد که اغلب مراکز داده در ایران از سامانه‌های خنک‌کاری هواپایه بهره می‌برند.

چه راهکارهایی برای کاهش مصرف آب و انرژی مراکز داده در ایران وجود دارد؟

بسته به نوع سیستم سرمایش مورد استفاده و وضعیت مرکز داده (در مرحله طراحی یا بهره‌برداری)، راهکارهای متفاوتی برای کاهش مصرف قابل بررسی است. با توجه به شواهد تصویری موجود، فرض می‌شود که اغلب مراکز داده فعال در حال حاضر از روش‌های سرمایش هواپایه استفاده می‌کنند؛ ازاین‌رو، توضیحات ارائه‌شده در ادامه این پرسش، به این دسته از مراکز محدود می‌شود. به‌طور کلی، راهکارهای کاهش مصرف را می‌توان به دو دسته تقسیم کرد.

شکل 6 انواع روش‌های کاهش مصرف آب و انرژی در مراکز داده با سیستم‌های سرمایش هواپایه

 الف. غیرانرژی‌بر

مقصود از این نوع روش‌ها آن است که با اعمال تغییرات اولیه، کاهش مصرف انرژی محقق می‌شود و در طول بهره‌برداری از تجهیزات، نیازی به صرف انرژی اضافی به‌منظور کاهش مصرف انرژی وجود ندارد.

ارتفاع کف و سقف: افزایش ارتفاع سقف موجب بهبود توزیع هوا و الگوی جریان آن در فضای مرکز داده شده و از شکل‌گیری نقاط گرم موضعی جلوگیری می‌کند. دو پژوهش مستقل نشان داده‌اند که در صورت ورود هوا از کف تجهیزات، ارتفاع سقف حدود 5/2 متر ارتفاع بهینه است[22], [23]. به‌طور کلی، با توجه به آنکه هوای گرم چگالی کمتری نسبت به هوای سرد دارد و به سمت بالا حرکت می‌کند، تأمین هوای سرد از کف و خروج آن از سقف باعث تبادل حرارت مؤثرتری فی‌مابین تجهیزات و سیال خنک‌کننده (هوا) می‌شود.

در صورتی که کف مجموعه بالاتر از کف معماری قرار گیرد، فضای مناسبی برای عبور کابل‌ها، سینی‌ها و داکت‌های توزیع هوا فراهم خواهد شد. همچنین به دلیل حرکت طبیعی هوای گرم به سمت بالا، ورود هوای سرد از پایین موجب کاهش افت فشار وارد بر فن‌های سامانه تهویه مطبوع شده و در نتیجه مصرف انرژی فن‌ها نیز کاهش می‌یابد. در مطالعات مختلف، بازه‌ای در حدود ۶۰ تا ۹۶ سانتی‌متر برای ارتفاع کف کاذب پیشنهاد شده است[24], [25].

در صورت استفاده از کف کاذب و ورود هوای سرد از زیر، لازم است هوا از طریق تایل‌های منفذدار کف به فضای مرکز داده هدایت شود. پژوهش‌های گسترده‌ای درباره تعداد، اندازه و نحوه توزیع این منافذ بر روی تایل‌ها انجام شده است[26]. هرچند تنوع تایل‌های در دسترس ممکن است محدود باشد و انتخاب گزینه کاملاً بهینه امکان‌پذیر نباشد، اما ترکیب این موضوع با سایر ملاحظات معماری فضا می‌تواند نقش مؤثری در افزایش بهره‌وری سیستم سرمایش مرکز داده ایفا کند.

با توجه به تفاوت در پلان‌های معماری و تنوع تایل‌های در دسترس در مراکز داده مختلف، پیشنهاد می‌شود با بهره‌گیری از ابزارهای دینامیک سیالات محاسباتی (CFD)، بهترین ترکیب این دو عامل برای بهینه‌سازی توزیع و جریان هوا در فضای داخلی مرکز داده تعیین شود.

عایق‌بندی دیوار: افزایش سطح و کیفیت عایق‌ها موجب کاهش تبادل حرارتی با محیط پیرامون شده و در نتیجه بار سرمایشی ساختمان را کاهش می‌دهد.

بام سفید: در صورتی که سقف مجموعه در مجاورت فضای آزاد قرار داشته باشد، ایزوگام‌کردن آن به دلیل رنگ تیره ایزوگام می‌تواند منجر به جذب حداکثری تابش خورشید و در نتیجه افزایش بار حرارتی ساختمان شود. در این شرایط، رنگ‌آمیزی بام با رنگ‌های روشن (مانند سفید) یا استفاده از عایق‌های با پوشش روشن می‌تواند نقش مؤثری در کاهش جذب حرارت ایفا کند. همچنین اجرای بام سبز، علاوه بر کاهش بار سرمایشی ساختمان، موجب بهبود جلوه بصری و ارتقای کیفیت هوای محیط پیرامون نیز خواهد شد[27], [28].

تغییر چینش تجهیزات: یکی از مهم‌ترین روش‌های کاهش مصرف انرژی در مراکز داده که پژوهش‌های گسترده‌ای نیز پیرامون آن انجام شده است، اصلاح نحوه چینش کابینت‌ها (رک‌ها) و تجهیزات داخل آن‌هاست[29]. در صورتی که تجهیزات در ردیف‌های رک به‌صورت پشت‌به‌پشت نصب شوند (مطابق شکل 6 که نمای جانبی است) و این آرایش در سایر ردیف‌ها نیز تکرار شود، فضاهای میانی بین رک‌ها به‌صورت یک‌درمیان به نواحی گرم و سرد تقسیم خواهند شد.

در این حالت، به‌عنوان مثال در شکل نشان‌داده‌شده، فضای میانی گرم‌تر است زیرا فن تجهیزات در دو ردیف رک مجاور، گرمای تولیدشده ناشی از پردازش را به سمت این فضای مشترک هدایت می‌کنند. در مقابل، فضای سمت راست ردیف اول و سمت چپ ردیف دوم به‌عنوان ناحیه سردتر عمل می‌کند. چنانچه ارتباط میان این فضاهای مشترک با مسدودسازی فضای بالای رک‌ها و انتهای ردیف‌ها مسدود شود و از اختلاط هوای گرم و سرد جلوگیری شود، بهره‌وری سیستم سرمایش به‌طور قابل‌توجهی افزایش خواهد یافت[30].

در این آرایش، هوای سرد خروجی از سامانه تهویه باید به فضای میانی سردتر دمیده شود تا با مکش فن تجهیزات، از روی پردازنده‌ها عبور کرده و تبادل حرارتی مؤثری با تجهیزات فناوری اطلاعات برقرار کند. هوای گرم خروجی نیز می‌بایست از بالای ناحیه گرم‌تر جمع‌آوری و خارج شود. در نهایت، فاصله بین ردیف‌های رک، محل جانمایی دریچه‌های ورودی و خروجی هوا و سایر مشخصات هندسی از جمله پارامترهایی هستند که لازم است به‌صورت بهینه طراحی و تنظیم شوند.

شکل 6 چینش صحیح تجهیزات درون رک‌ها

حذف فضای پرت: از جمله اقدامات ساده و کوتاه‌مدت برای کاهش مصرف انرژی، می‌توان به مسدود کردن دریچه‌های هوای بخش‌هایی از مرکز داده که در حال حاضر مورد استفاده نیستند اشاره کرد. لازم به ذکر است که این اقدام باید هم‌زمان با جداسازی فیزیکی فضای فعال و غیرفعال مرکز داده انجام شود؛ به‌گونه‌ای که موانع فیزیکی از پخش شدن هوا در کل فضای مرکز جلوگیری کنند. در غیر این صورت، مسدود کردن دریچه‌ها نه‌تنها منجر به کاهش مصرف انرژی نخواهد شد، بلکه ممکن است یکنواختی دمای تجهیزات را مختل کرده و موجب ایجاد تنش حرارتی در آن‌ها شود.

ب. انرژی‌بر

تغییر زون‌بندی سیستم سرمایش: در یک سیستم سرمایش، به بخشی از فضا که باید (در طراحی فرض می‌شود) دارای دمای یکنواخت است، «زون حرارتی» گفته می‌شود. نحوه تعریف این زون‌ها تأثیر مستقیمی بر طراحی سیستم سرمایش داشته و بر میزان مصرف انرژی اثرگذار است. شکل 6 سه رویکرد متفاوت در این زمینه را نشان می‌دهد. در طرح نخست (بالا)، کل فضای اتاق به‌عنوان یک زون حرارتی در نظر گرفته شده است. در طرح میانی، هر ردیف رک به‌عنوان یک زون حرارتی مستقل تعریف می‌شود و در طرح پایینی، هر کابینت (رک) به‌صورت مجزا یک زون حرارتی محسوب می‌گردد.

با افزایش تعداد زون‌های حرارتی، تعداد فن‌ها و تجهیزات جانبی مرتبط با سرمایش نیز افزایش می‌یابد؛ با این حال، امکان کنترل دقیق‌تر و مؤثرتر دمای تجهیزات فراهم می‌شود. به نظر نگارنده، افزایش تعداد زون‌ها تنها برای تأسیسات زیرساختی بسیار حساس توجیه‌پذیر است و در اغلب کاربردهای غیرحساس، استفاده از یک زون حرارتی در مقیاس اتاق یا چند زون متناظر با ردیف‌های رک، کفایت می‌کند.

سرمایش طبیعی: همان‌گونه که در توضیح انواع روش‌های سرمایش اشاره شد، بهره‌گیری از سرمایش طبیعی در شرایطی که دما و رطوبت هوای خارج از ساختمان در بازه قابل قبول قرار داشته باشد، یکی از ساده‌ترین و در عین حال مؤثرترین راهکارهای کاهش مصرف انرژی به‌شمار می‌رود. نتایج پژوهش‌ها نشان می‌دهد که استفاده کنترل‌شده از هوای بیرون بسته به موقعیت جغرافیایی، اقلیم منطقه و نحوه بهره‌برداری از هوای تازه می‌تواند منجر به کاهش ۱۵ تا ۴۲ درصدی در هزینه‌های مرتبط با انرژی شود.

اکونومایز: در اینجا منظور از اکونومایزر، یک مبدل حرارتی واسط است که در مسیر بین برج خنک‌کننده و چیلر نصب می‌شود و نقش آن بهره‌گیری حداکثری از شرایط محیطی برای کاهش بار سرمایشی است. در زمان‌هایی که دمای هوای بیرون و دمای حباب‌تر[1] در محدوده مناسبی قرار داشته باشد، این مبدل امکان آن را فراهم می‌کند که چیلر به‌طور کامل از مدار خارج شده و آب سرد مورد نیاز مدار سرمایش مستقیماً از طریق برج خنک‌کننده تأمین شود.

حذف چیلر از مدار علاوه بر کاهش چشمگیر مصرف انرژی الکتریکی، موجب کاهش ساعات کارکرد چیلر و در نتیجه کاهش استهلاک، افزایش عمر مفید و کاهش هزینه‌های تعمیر و نگهداری این تجهیز گران‌قیمت می‌شود. این موضوع به‌ویژه در مراکز داده‌ای که به‌صورت ۲۴ ساعته در حال بهره‌برداری هستند، اهمیت دوچندانی پیدا می‌کند.

لازم به ذکر است که استفاده از اکونومایزر تنها در سیستم‌هایی امکان‌پذیر است که از چیلرهای آب‌خنک بهره می‌برند، چرا که وجود برج خنک‌کننده بخش جدایی‌ناپذیر این سامانه‌هاست. در مقابل، در چیلرهای هواخنک به دلیل ماهیت عملکرد و نبود مدار آب برج خنک‌کننده، امکان استفاده از این نوع اکونومایزر وجود ندارد.

شکل 6 انواع زون‌بندی حرارتی[30]

ج. بازیافت و توزیع گرما

با توجه به آنکه مراکز داده در تمام طول سال نیازمند سرمایش هستند و بار مصرف تجهیزات فناوری اطلاعات آن‌ها عموماً مستقل از ساعت شبانه‌روز و نسبتاً ثابت است، امکان بهره‌برداری از گرمای تولیدشده توسط این تجهیزات به‌عنوان منبعی پایدار برای گرمایش فضاهای اطراف فراهم می‌شود. در ساده‌ترین حالت، هوای گرم خروجی از فضای داخلی مرکز داده می‌تواند برای گرمایش فضاهای اداری یا سایر فضاهای مجاور در همان ساختمان مورد استفاده قرار گیرد.

در مقیاس‌های بزرگ‌تر، این گرما قابلیت آن را دارد که برای تأمین گرمایش ساختمان‌های مجاور نیز به‌کار گرفته شود؛ به‌گونه‌ای که این ساختمان‌ها به‌جای سرمایه‌گذاری برای نصب و بهره‌برداری از سامانه‌های گرمایشی مستقل، مستقیماً هوای گرم یا آب گرم تولیدشده در مرکز داده را دریافت کنند. در این رویکرد، هم‌زمان با خنک‌سازی تجهیزات فناوری اطلاعات، از مصرف انرژی اضافی برای گرمایش ساختمان‌های پیرامونی نیز جلوگیری می‌شود و بازده کلی سیستم انرژی به‌طور محسوسی افزایش می‌یابد.

در سال‌های اخیر، تحقیقات و پروژه‌های متعددی، به‌ویژه در کشورهای اروپایی، در زمینه بازیافت و استفاده مجدد از گرمای مراکز داده در حال انجام است و هم‌اکنون طرح‌های پژوهشی گوناگونی در سطح اتحادیه اروپا با هدف توسعه، بهینه‌سازی و گسترش این فناوری در دست اجرا قرار دارد[31].

د. تولید انرژی در محل

همان‌گونه که پیش‌تر اشاره شد، مراکز داده عموماً دارای بار سرمایشی تقریباً ثابتی در طول سال هستند. این ویژگی موجب می‌شود که در صورت به‌کارگیری سامانه‌های تولید پراکنده، اعم از تولید صرف توان الکتریکی مانند دیزل‌ژنراتورها، یا سامانه‌های تولید هم‌زمان توان، گرمایش و سرمایش (CCHP)، این تجهیزات بتوانند به‌طور پیوسته در نقطه بهینه عملکردی خود فعالیت کنند. در نتیجه، بازده کلی سیستم افزایش یافته و هزینه‌های بهره‌برداری کاهش می‌یابد.

افزون بر این، نصب منابع تجدیدپذیر نظیر پنل‌های خورشیدی و توربین‌های بادی می‌تواند نقش مؤثری در کاهش بار تحمیلی مراکز داده بر شبکه سراسری برق ایفا کند و تاب‌آوری تأمین انرژی را افزایش دهد. در دولت جدید ایالات‌متحده، انرژی هسته‌ای نیز به‌عنوان یکی از گزینه‌های بالقوه برای تأمین انرژی مراکز داده مبتنی بر هوش مصنوعی با توان مصرفی بسیار بالا مطرح شده است؛ هرچند تا زمان نگارش این گزارش، این رویکرد هنوز به مرحله اجرا و بهره‌برداری عملی نرسیده است.[32]

ظرفیت‌های قانونی این فناوری در ایران چیست؟

طبق اطلاعات به دست آمده اسناد مربوط به مراکز داده عموماً بر بعد فنی و تخصصی عملکرد اینگونه مجموعه‌ها تأکید دارند و تاکنون توجه لازم به استانداردسازی میزان مصرف انرژی اینگونه مراکز صورت نگرفته است.

از جمله اسناد بالادستی موجود در ارتباط با مراکز داده می‌توان به طرح کلان و معماری شبکه ملی اطلاعات برای افق 1404، سند راهبردی توسعه رایانش ابری جمهوری اسلامی، سند الزامات طراحی و توسعه زیرساخت‌های شبکه ملی اطلاعات، سند الزامات طراحی و توسعه قطب مراکز داده و سند اصول حاکم بر خدمات مراکز داده و خدمات ابری اشاره کرد.

نتیجه‌گیری و پیشنهادهای عملیاتی خانه هم‌افزایی:

  • پیشنهاد می‌شود با توجه به نبود استاندارد مصرف انرژی در کشور برای مراکز داده، در کوتاه‌مدت از استاندارد اشری 4/90 استفاده شود و در بلندمدت نسبت به تدوین استاندارد الزامی برای تعیین مقادیر حداکثر شاخص بار مکانیکی و تلفات الکتریکی اقدام شود.
  • با توجه به شرایط اقلیمی کشور، زیرساخت‌های موجود فیبر نوری و الزامات اسناد بالادستی برای توسعه مراکز داده در استان‌ها، پیشنهاد می‌شود احداث مراکز داده در مناطق مستعد استان‌های خراسان رضوی، آذربایجان شرقی و غربی و اراک در اولویت قرار گیرد. همچنین به‌منظور تمرکززدایی از کلان‌شهرها، کاهش اثرات آلودگی هوابر تجهیزات و کاهش هزینه‌های خنک‌کاری، جانمایی این مراکز در خارج از شهرهای بزرگ و در مجاورت خطوط فیبر نوری توصیه می‌شود که می‌تواند به ایجاد اشتغال در شهرهای کوچک‌تر نیز کمک کند.

مراجع:

[1]          J. H. Raza Muhammad, “Data Centers Explained: Types, Features, and Choosing the Right Model,” Splunk. Accessed: Dec. 28, 2025. [Online]. Available: https://www.splunk.com/en_us/blog/learn/data-centers.html

[2]          M. Wilson, “Data Center Basics,” Nlyte. Accessed: Dec. 28, 2025. [Online]. Available: https://www.nlyte.com/blog/data-center-basics/

[3]          “Tier Classification System,” Uptime Institute. Accessed: Dec. 28, 2025. [Online]. Available: https://uptimeinstitute.com/tiers

[4]          J. Huang, C. Chen, G. Guo, Z. Zhang, and Z. Li, “A calculation model for typical data center cooling system,” in Journal of Physics: Conference Series, IOP Publishing, 2019, p. 012022. [Online]. Available: https://iopscience.iop.org/article/10.1088/1742-6596/1304/1/012022/meta

[5]          D. W. Demetriou, “The ASHRAE Thermal Guidelines for Data Centers Past, Present, and Future,” 2025.

[6]          “ASHRAE_Contamination_Whitepaper_30_July_2009.pdf (SECURED).” Accessed: Dec. 29, 2025. [Online]. Available: https://datacenters.lbl.gov/sites/default/files/ASHRAE_Contamination_Whitepaper_30_July_2009.pdf?utm_source=chatgpt.com

[7]          “ISO_IEC 30134-1(2016).pdf.” Accessed: Dec. 29, 2025. [Online]. Available: https://docbox.etsi.org/stf/Archive/STF516_M462_EnergyEfficiency/STFworkarea/WG1/Documents/Foundation/ISO_IEC%2030134-1(2016).pdf

[8]          “ANSI ASHRAE Standard 90.4-2022 | PDF | Data Center,” Scribd. Accessed: Dec. 29, 2025. [Online]. Available: https://www.scribd.com/document/728742741/ANSI-ASHRAE-Standard-90-4-2022

[9]          “Power usage effectiveness,” Google Data Centers. Accessed: Dec. 30, 2025. [Online]. Available: https://datacenters.google/efficiency

[10]       “AWS Cloud – Amazon Sustainability.” Accessed: Dec. 30, 2025. [Online]. Available: https://sustainability.aboutamazon.com/products-services/aws-cloud

[11]       “Measuring energy and water efficiency for Microsoft Datacenters,” Microsoft Datacenters. Accessed: Dec. 30, 2025. [Online]. Available: https://datacenters.microsoft.com/sustainability/efficiency/

[12]       “Meta_2025-Environmental-Data-Index.pdf.” Accessed: Dec. 30, 2025. [Online]. Available: https://sustainability.atmeta.com/wp-content/uploads/2025/10/Meta_2025-Environmental-Data-Index.pdf

[13]       U. N. Environment, “Sustainable Procurement Guidelines for Data Centres and Servers | UNEP – UN Environment Programme.” Accessed: Dec. 29, 2025. [Online]. Available: https://www.unep.org/resources/toolkits-manuals-and-guides/sustainable-procurement-guidelines-data-centres-and-servers

[14]       S. Wiriyasart and P. Naphon, “Liquid impingement cooling of cold plate heat sink with different fin configurations: High heat flux applications,” Int. J. Heat Mass Transf., vol. 140, pp. 281–292, 2019.

[15]       “Data Center Cooling: Air vs. Liquid – Which Way to the Future? | LG Global Business,” LG Global. Accessed: Dec. 28, 2025. [Online]. Available: https://www.lg.com/global/business/insights/hvac/blog/data-center-cooling-air-vs-liquid-which-way-to-the-future/

[16]       A. Shehabi et al., “United States Data Center Energy Usage Report,” LBNL–1005775, 1372902, June 2016. doi: 10.2172/1372902.

[17]       N. Lei, J. Lu, A. Shehabi, and E. Masanet, “The water use of data center workloads: A review and assessment of key determinants,” Resour. Conserv. Recycl., vol. 219, p. 108310, 2025.

[18]       K. Mori, C. Taylor, J. Steinbuck, and D. Bohan, “Demonstration of Low-Cost Data Center Liquid Cooling,” California Energy Comission, Energy Research and Development (500), California, USA, CEC-500-2024-061, June 2024.

[19]       “ASHRAE 90.4-2025 | ASHRAE Store.” Accessed: Dec. 29, 2025. [Online]. Available: https://store.accuristech.com/standards/ashrae-90-4-2025?product_id=3032033

[20]       H. Eshraghi, M. Ansari, S. Moshari, and J. Gholami, “Climatic zoning and per capita demand forecast of Iran using degree-day method,” Adv. Build. Energy Res., vol. 15, no. 6, pp. 683–708, Nov. 2021, doi: 10.1080/17512549.2019.1654918.

[21]       “ارزیابی ۱۱۰ مرکز داده؛ تا ۲ ماه آینده مراکز به ابردولت منتقل می‌شوند – خبرگزاری مهر | اخبار ایران و جهان | Mehr News Agency.” Accessed: Dec. 29, 2025. [Online]. Available: https://www.mehrnews.com/news/6612934/%D8%A7%D8%B1%D8%B2%DB%8C%D8%A7%D8%A8%DB%8C-%DB%B1%DB%B1%DB%B0-%D9%85%D8%B1%DA%A9%D8%B2-%D8%AF%D8%A7%D8%AF%D9%87-%D8%AA%D8%A7-%DB%B2%D9%85%D8%A7%D9%87-%D8%A2%DB%8C%D9%86%D8%AF%D9%87-%D9%85%D8%B1%D8%A7%DA%A9%D8%B2-%D8%A8%D9%87-%D8%A7%D8%A8%D8%B1%D8%AF%D9%88%D9%84%D8%AA-%D9%85%D9%86%D8%AA%D9%82%D9%84-%D9%85%DB%8C-%D8%B4%D9%88%D9%86%D8%AF

[22]       S. Bhopte, D. Agonafer, R. Schmidt, and B. Sammakia, “Optimization of data center room layout to minimize rack inlet air temperature,” 2006, Accessed: Dec. 31, 2025. [Online]. Available: https://asmedigitalcollection.asme.org/electronicpackaging/article-abstract/128/4/380/477584

[23]       S. Nagarathinam, B. Fakhim, M. Behnia, and S. Armfield, “A Comparison of Parametric and Multivariable Optimization Techniques in a Raised-Floor Data Center,” J Electron Packag, July 2013, doi: https://doi.org/10.1115/1.4023214.

[24]       S. A. Nada and M. A. Said, “Comprehensive study on the effects of plenum depths on air flow and thermal managements in data centers,” Int. J. Therm. Sci., vol. 122, pp. 302–312, 2017.

[25]       A. H. Beitelmal, “Numerical Investigation of Data Center Raised-Floor Plenum,” presented at the ASME 2015 International Mechanical Engineering Congress and Exposition, Texax, USA: ASME, Mar. 2016. doi: https://doi.org/10.1115/IMECE2015-50884.

[26]       S. Cai and Z. Gou, “Towards energy-efficient data centers: A comprehensive review of passive and active cooling strategies,” Energy Built Environ., 2024, Accessed: Dec. 31, 2025. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S2666123324000916

[27]       I. Andric, A. Kamal, and S. G. Al-Ghamdi, “Efficiency of green roofs and green walls as climate change mitigation measures in extremely hot and dry climate: Case study of Qatar,” Energy Rep., vol. 6, pp. 2476–2489, 2020.

[28]       F. Ascione, “Energy conservation and renewable technologies for buildings to face the impact of the climate change and minimize the use of cooling,” Sol. Energy, vol. 154, pp. 34–100, 2017.

[29]       H. Rong, H. Zhang, S. Xiao, C. Li, and C. Hu, “Optimizing energy consumption for data centers,” Renew. Sustain. Energy Rev., vol. 58, pp. 674–691, 2016.

[30]       A. A. Alkrush, M. S. Salem, O. Abdelrehim, and A. A. Hegazi, “Data centers cooling: A critical review of techniques, challenges, and energy saving solutions,” Int. J. Refrig., vol. 160, pp. 246–262, 2024.

[31]       X. Yuan et al., “Data center waste heat for district heating networks: A review,” Renew. Sustain. Energy Rev., vol. 219, p. 115863, 2025.

[32]       “Advantages and Challenges of Nuclear-Powered Data Centers,” Energy.gov. Accessed: Dec. 31, 2025. [Online]. Available: https://www.energy.gov/ne/articles/advantages-and-challenges-nuclear-powered-data-centers

آنچه در ادامه می‌خوانید...