Veri merkezleri günlük hayatımızın ayrılmaz bir parçası hâline geliyor. Telekomünikasyon, ulaşım, halk sağlığı ve şehir trafiği gibi tüm önemli hizmetler artık bilgi teknolojileri hizmetlerini dağıtmak için veri merkezlerini kullanıyor. Yukarıda belirtilen tesislerin önemi ve artan talep nedeniyle veri merkezlerinin güç tüketimi ve işletme maliyetleri hızla artıyor. Bu nedenle araştırmacılar artık öncelikli olarak veri merkezlerini optimize etmeye odaklanıyor.
Veri merkezlerinin optimize edilmesinde yapay zekâ, geleneksel veri analitiğinin ötesine geçen güçlü bir araç olarak dikkat çekiyor. Bu teknoloji genellikle manuel yöntemlerle gözden kaçırılan kalıpları ve eğilimleri tespit ederek verimliliğin ve doğruluğun artmasına imkân sağlıyor.
Yapay zekâ, veri merkezlerinin yönetilmesinde kritik bir rol oynuyor. Veri merkezi ağının otomatik ve akıllı yönetimi ile optimizasyonu için ağdan ve makine öğrenmesi modellerinden yapılan sürekli ölçümlerden yararlanılarak giderek daha fazla süreç yapay zekâ tabanlı hâle geliyor. 2021 yılında yapılan bir araştırmaya göre, yapay zekâ destekli sistemler, veri merkezi operasyonlarının verimliliğini yüzde 40 oranında artırabilir. Bu sistemler, veri akışını optimize ederek ve enerji tüketimini minimuma indirerek operasyonel maliyetlerde önemli düşüşler sağlıyor. Yapay zekâ, yeni nesil veri merkezi ağlarının oluşturulmasında oyunun kurallarını değiştirecek gibi görünüyor.
Veri merkezi ağı (Data Center Network -DCN) akıllı evlerden trafik kontrolüne kadar yakın geçmişte çıkan birçok uygulamanın temelini oluşturuyor. Bu uygulamaların çeşitli ve giderek artan bilgi işlem gereksinimlerini karşılamak için sürekli olarak geliştirilmesi gerekiyor. Veri merkezlerinde genellikle ortak bir hedefe ulaşmak ve bu uygulamalara hizmet vermek için birlikte çalışan sunucular, anahtarlar ve yönlendiriciler gibi çok sayıda bileşen ve cihaz bulunuyor. Bu kadar büyük veri merkezlerini yönetmek de zorlu bir süreç oluşturuyor ve otomasyon, akıllı kontrol sistemleri ve karar almayı gerektiren yeni ihtiyaçlar da buna paralel olarak ortaya çıkıyor.
Son yıllarda hem endüstriyel hem de akademik çevreler veri merkezlerinin kontrolüne, otomasyonuna ve yönetimine yapay zekâ özellikleri kazandırmak için çalışıyor. Ağlar için makine öğrenmesini (Machine Learning -ML) araştıran çalışmaların çeşitliliğine rağmen bunların hiçbiri bugüne kadar veri merkezine çok fazla odaklanmamıştı. Akademik ve endüstriyel topluluklardaki katılımcıların tümü, iş yükü tahmini, trafik akışı kontrolü, trafik sınıflandırması ve zamanlaması, topoloji yönetimi, ağ durumu tahmini, temel neden analizi dahil olmak üzere kritik birçok temel sorunu çözmek için veri merkezinde uygulanan makine öğrenmesi çözümlerini içeren kapsamlı araştırmalardan yararlanmaya çalışıyor.
Makine öğrenmesinin hızlı büyümesi, bilişim gücüne olan talebin artmasına yol açarak daha büyük veri merkezlerine ve daha yüksek enerji tüketimine yol açıyor. Bu sorunu çözmek ve karbon emisyonlarını azaltmak için sunucu gibi bilişim teknolojileri ekipmanları, sunucu kabinleri, havalandırma ve iklimlendirme (Heating, Ventilation, and Air Conditioning -HVAC) sistemleri, enerji depolama sistemleri ve esnek yük dengeleme teknolojileri gibi veri merkezi bileşenlerinin akıllı tasarımı ve kontrolü önem kazanıyor. Ancak bunları birlikte tasarlamanın ve kontrol etmenin karmaşıklığı da ayrı bir zorluk teşkil ediyor. Akışkanlar Dinamiği Hesaplamaları (Computational Fluid Dynamics -CFD) tabanlı tasarım ve Güçlendirilmiş Öğrenme (Reinforced Learning -RL) tabanlı HVAC kontrolü gibi bazı ayrı bileşenlerle ilgili çalışmalar yapılıyor olsa da tüm öğeleri aynı anda kapsayan bütünsel tasarım ve optimizasyonda bir boşluk bulunuyor. Bu boşluğu da yapay zekânın doldurması bekleniyor.
Yapay zekâ hâlihazırda veri merkezini çevreleyen süreçleri farklı ve birçok yönden şekillendiriyor. Yapay zekâ destekli trendleri uygulayan şirketler veri işlemenin hızında ve doğruluğunda çarpıcı gelişmeler yaşıyor. Bu yolla daha iyi karar alınmasına ve verimliliğin artmasına imkân sağlanıyor.
Veri merkezlerinde yapay zekâ kullanımında görülen trendlerden biri çıkarma, dönüştürme ve yükleme (Extract, Transform, and Load -ETL) sürecine yardımcı olmak için yapay zekânın kullanılması olarak biliniyor. Yapay zekâ destekli ETL araçları tekrarlanan görevleri otomatikleştirebiliyor, performansı optimize edebiliyor ve insan hatası olasılığını azaltabiliyor.
Yapay zekânın düşük seviyeli görevleri üstlenmesiyle veri mühendisleri veri modelleri tasarlama, makine öğrenmesi algoritmalarını eğitme ve veri görselleştirmeleri oluşturma gibi daha yüksek seviyeli görevlere odaklanabiliyor. Örneğin Coca-Cola tedarik ve kaynak bulma süreçlerini optimize etmek amacıyla küresel tedarik zinciri genelinde veri entegrasyonu görevlerini otomatikleştirmek için yapay zekâ destekli ETL araçlarını kullanıyor. Bu araçlar sayesinde, tedarik ve kaynak bulma süreçleri otomatikleşiyor ve veri entegrasyonu kolaylaşıyor, böylece iş süreçlerinde yüzde 30’a varan zaman tasarrufu sağlanıyor.
Veri merkezlerindeki bir diğer trend akıllı veri modelleme için yapay zekâ destekli araçların kullanılması olarak öne çıkıyor. Yapay zekâ, veri noktaları arasındaki ilişkileri dikkate alarak veri kaynaklarını analiz edebiliyor ve otomatik olarak veri modelleri oluşturabiliyor.
Yapay zekâ, veri merkezlerinde veri temizleme sürecini otomatikleştirmek için de giderek daha fazla kullanılıyor. Otomatik veri temizleme veya veri hazırlama bir veri merkezindeki yanlışlıkları, tutarsızlıkları, hataları ve eksik bilgileri tespit edip ortadan kaldırmak ve verilerin doğru ve güvenilir olmasını sağlamak için yapay zekânın kullanılmasını içeriyor.
Yapay zekâ destekli veri temizleme araçlarıyla kuruluşlar büyük miktarlardaki verileri verimli bir şekilde işlemek ve temizlemek için gelişmiş algoritmalardan ve güçlü bilgi işlem gücünden yararlanabiliyor. Çeşitli veri türlerini işleme yeteneği, kapsamlı veri temizliğine olanak tanıyarak analiz ve karar verme için yüksek kaliteli veriler sağlıyor. Örneğin GE Healthcare elektronik tıbbi kayıtlarındaki verilerin kalitesini artırmak ve hasta teşhis ile tedavisindeki hata riskini azaltmak için yapay zekâ destekli veri temizleme araçlarından yararlanıyor.
Yapay zekâ yukarıda yer alan alanlara ilave olarak enerji tüketimi, veri yönetimi ve siber güvenlik gibi farklı alanlarda veri merkezlerini geliştirmede yardımcı oluyor.
Büyük veri ve bulut bilişim gibi teknolojilerin hızla gelişmesiyle birlikte artan veri iletişimi, veri merkezlerinde büyük miktarda enerji tüketimine yol açıyor. Veri merkezleri her geçen gün küresel olarak dünyanın en büyük enerji kullanıcıları hâline geliyor. Yapılan araştırmalar bu oranın 2017’de yüzde 3 iken 2025’te yüzde 4,5’e çıkacağını işaret ediyor. Eşsiz iklimi ve enerji tasarrufu avantajları nedeniyle Pan-Arktik’teki yüksek enlem bölgesi son yıllarda veri merkezi yer seçimi için giderek popüler bir nokta hâline gelmeye başlıyor. Bu bölgelerde uygulanacak yapay zekâ enerji yönetim sistemleri veri merkezlerini enerji tüketimi açısından daha da verimli hâle getirmeyi vadediyor.
Son yıllarda veri merkezi enerji verimliliğini ölçmek için uygun matrislerin geliştirilmesine yönelik önemli araştırmalar da yapılıyor. İlk olarak bir sistemin enerji verimliliği, sistem tarafından yapılan faydalı işin sisteme verilen toplam enerjiye oranı olarak ölçülüyor. Bir veri merkezi için enerji verimliliği farklı alt sistemler tarafından gerçekleştirilen faydalı iş olarak değerlendirilebiliyor.
Enerjiyle ilgili maliyetler bilgi teknolojileri altyapıları ve veri merkezleri için önemli bir ekonomik faktör hâline geldikçe şirketler ve araştırma toplulukları daha verimli, güce daha duyarlı kaynak yönetimi stratejileri bulma konusunda zorlanıyor. Enerji açısından verimli bir veri merkezi elde etmek için performansı en üst düzeye çıkarırken belirsiz bilgilerle başa çıkacak makineleri açma/kapama sistemleri, güce duyarlı birleştirme algoritmaları ve makine öğrenmesi teknikleri gibi farklı teknikleri kullanan akıllı bir birleştirme metodolojisi sağlayan bir sistem modelinin faydalı olacağı değerlendiriliyor. Makine öğrenmesi yaklaşımında güç tüketimi seviyelerini, CPU yüklerini ve Hizmet Seviyesi Anlaşması (Service Level Agreement -SLA) zamanlamalarını tahmin etmek ve planlama kararlarını iyileştirmek amacıyla önceki sistem davranışlarından öğrenilen modellerin kullanılması avantaj sağlıyor.
Yapay zekânın veri merkezlerinde enerji verimliliğini kanıtlayan bir yaklaşım da Yeşil Veri Merkezleri (Green Data Centers) olarak ortaya çıkıyor.
Yeşil veri merkezi yaklaşımı sürdürülebilirlik arayışında çok önemli bir araç olarak görülüyor. Son raporlara göre veri merkezi endüstrisi küresel sera gazı emisyonlarının yüzde 1-2’sini oluşturuyor. Bu durum, veri merkezi hizmet kalitesini korurken daha büyük, daha hızlı ve daha karmaşık iş yüklerini çalıştırmak için artan elektrik talebinden kaynaklanıyor.
Karbon ayak izini azaltmak amacıyla yapay zekânın yükselişi, veri merkezi operatörlerine birçok heyecan verici fırsat sunuyor. Yapay zekânın en dönüştürücü potansiyelinin soğutma, kaynak tahsisi ve enerji tüketiminde enerji kullanımını optimize etmede yattığı düşünülüyor.
Yeşil veri merkezleri yapay zekâ optimizasyonu, tahmine dayalı analitik ve akıllı güç kullanımı yoluyla enerji verimliliğini önemli ölçüde artırma potansiyeli sergiliyor. Yapay zekâ modelleri kaynak tahsisinden enerji yoğun süreçlerin tespit edilmesine, dinamik ayarlamaların yapılmasına ve yeterli ve yeteri kadar soğutmanın sağlanmasına kadar birçok alanda kullanılabiliyor. Gelecekteki gelişmelerin enerji verimliliğini daha da yüksek seviyelere taşıması ve veri merkezlerini daha çevre dostu hizmetlere doğru yönlendirmesi bekleniyor.
Yapay zekâ veri merkezlerinde veri trafiği ve veri işlenmesinin kontrolünde de önemli bir rol oynuyor. Yapay zekâ ile verilere erişim ve cevap alma gibi konular hızlanarak daha verimli hâle gelebiliyor.
Veri merkezi trafiğinin çeşitli iletişim modelleri bulunuyor ve bu modeller etkili akış kontrol mekanizmaları gerektiriyor. Mevcut veri merkezi ağı akış kontrolü protokolleri esas olarak TCP (Transmission Control Protocol), DCTCP (Data Center TCP) ve DCQCN (Data Center Quantized Congestion Notification) gibi tıkanıklık kontrolü çözümlerinin bir parçası olarak kullanılıyor. Bu alandaki önemli zorluklardan biri, birden fazla ana bilgisayarın tek bir alıcı ana bilgisayara veri göndermesi durumunda ortaya çıkan döküm sorunu (Incast problem) olarak biliniyor. Veri akışlarının bu ani gelişi alıcı bağlantısının anahtar arabelleğinde tıkanıklık yaratabiliyor. Çeşitli veri trafiği kontrol teknikleri yerleşik akışlara hızlı bir şekilde tepki vermek üzere tasarlanmış olsa da veri paketlerine yol açan bu tür olayları proaktif olarak tespit edip bunlardan kaçınmada hâlâ başarısız olabiliyor. Bu nedenle gelecekteki trafik matrislerini öngörerek ağ durumunu tahmin eden ve buna göre gönderen ana bilgisayarlardaki oranları ayarlayan proaktif bir teknik tasarlama ihtiyacı ortaya çıkıyor. Yapay zekâ bu ihtiyaçları karşılayabilecek özellikler gösteriyor.
Derin öğrenme veri ve algoritma merkezi teknolojisi son zamanlarda sınırlı veri merkezi kaynakları üzerinde birden fazla model görevi çıkarımının aynı anda yürütülebileceği bir noktaya kadar ilerleyebiliyor. Bu durum her bir görevde yüksek kalite elde etmeye odaklanmak yerine ortak bir hedef doğrultusunda birlikte çalışılmasına olanak tanıyor. Çok modelli veri dağıtımında güvenlik açısından kritik senaryoları tehlikeye atmadan gecikmeyi mümkün olduğunca azaltmak için algoritmalara ince ayar yapılması gerekiyor.
Temel olarak yapay zekâ ve makine öğrenmesi algoritmaları veri merkezlerindeki kalıpları tespit etmede son derece iyi sonuçlar verebiliyor. Yapay zekâ öğrendiklerini gelecekteki görevlere uygulayabiliyor, birçok günlük operasyonu otomatikleştiriyor ve kolaylaştırıyor. Bu işlem tahmine dayalı analitik olarak biliniyor.
Son yıllarda yapılan araştırmalar veri merkezi operatörlerinin genel hizmetlerin günlük çalışmasını kolaylaştırmaya yardımcı olmak için yapay zekâyı benimsediğini gösteriyor. Yakın zamanda yapılan bir ankete göre, veri merkezi sahiplerinin yüzde 57’si operasyonel kararlar almak için bir yapay zekâ modeline güveneceklerini bildirmiş durumda. Bu durum, önceki yıla göre neredeyse yüzde 20’lik bir artış gösteriyor.
Veri merkezleri günümüzde iş yükü yönetimini ve tahsisini iyileştirmek için yapay zekâyı hâlihazırda kullanabiliyor. Bu çözümler donanım ve ağ hizmetlerinin daha verimli kullanılmasına, kesinti sürelerinin önlenmesine ve sürekli olarak yüksek düzeyde hizmet sağlanmasına yardımcı olabiliyor.
Veri merkezleri büyük miktarda kullanıcı verisini barındırıyor ve bu nedenle veri merkezinin siber güvenliği hem ağın hem de kullanıcı verilerinin kullanılabilirliğini ve bütünlüğünü korumak açısından her veri merkezi için temel bir gereklilik olarak düşünülüyor. Veri merkezleri genellikle kötü niyetli varlıklardan gelen hedefli saldırılarla karşı karşıya kalıyor ve geleneksel güvenlik duvarları ortaya çıkan tehditleri yönetemeyebiliyor. Üstelik şifrelenmiş trafik, ağ operatörlerinin bu tür saldırıları otomatik olarak tanımlamasını sağlayan derin paket incelemesini daha da zorlaştırıyor. Bu nedenle veri merkezleri kötü niyetli varlıkları tespit edebilen, kötü amaçlı trafik için imzalar oluşturabilen ve bu saldırıları gerçek zamanlı olarak önlemek için Yazılım Tanımlı Ağ (Software Defined Networking -SDN) denetleyicilerini kullanarak kurallar yükleyebilen gelişmiş izinsiz giriş tespit sistemlerine ihtiyaç duyuyor.
Son yıllarda makine öğrenmesi tabanlı ağ saldırı tespit sistemlerinin (Network Intrusion Detection Systems -NIDS) etkili sonuçlar vermeye başladığı görülüyor. NIDS’de siber saldırıların sınıflandırılması görevi literatürde kapsamlı bir şekilde çalışılmış olsa da güncel açık kaynak veri kümeleri üzerinde gradyan artırma algoritmaları ile kapsamlı bir kıyaslama çalışması bulunmuyor. Ancak mevcut veri merkezlerinde siber güvenlik için tercih edilen çeşitli sistemler bulunuyor.
ProHacker bu sistemlerden biri olarak biliniyor. Bu sistem çevrimiçi ve çevrimdışı olarak iki aşamada çalışıyor. Sistem çevrimdışı aşamasında ağ trafiğini topluyor ve daha sonra toplanan trafiği analiz ederek anahtar kelimeleri öğreniyor. Anahtar kelimeleri öğrenmek için giriş verilerini n-gramlara bölerek hareket eden sistem önemli (yinelenen) anahtar kelimeleri belirlemek için ağır bir algoritma uyguluyor. Daha sonra öğrenilen anahtar kelimeler üzerinde hiyerarşik bir Pitman-Yor sürecini kullanarak bir protokol dili modeli oluşturuyor. Bu işlevin çıktısı, ağ izlemesinde bulunan her protokol türüne karşılık gelen bir dil modeli oluşturuyor. Daha sonra az miktarda etiketli veri ve protokol anahtar kelimeleri kullanarak birkaç zayıf sınıflandırıcıyı eğitmek için toplu öğrenmeye dayalı yaklaşım uygulanabiliyor. Sistem çevrimiçi aşamada ise anahtar kelimeleri gerçek trafikten çıkarıyor ve kötü amaçlı trafiği tespit etmek için çevrimdışı aşamada önceden eğitilmiş sınıflandırıcıları kullanıyor. Sistem öğrenimi için önerilen şema hafif ve hızlı olmasına rağmen anahtar kelimeleri doğru bir şekilde çıkarmak için büyük miktarda trafik gerektiriyor.
Bir diğer siber güvenlik uygulaması olan SANTaClass protokol imzaları oluşturmak için denetimsiz bir makine öğrenmesi tekniği kullanıyor. Sistem ağ trafiğini girdi olarak alıyor ve çıktı aşamasında uygulama protokolü imzaları üretiyor.
Derin Paket (Deep Packet) sistemi ise çeşitli uygulamalara ait trafiği işleyebilen derin öğrenme tabanlı bir ağ trafiği sınıflandırma çerçevesi olarak öne çıkıyor. Derin Paket ayrıca şifrelenmiş trafiği tanımlayabiliyor ve Sanal Özel Ağ (Virtual Private Network -VPN) ile VPN olmayan ağlar arasında ayrım yapabiliyor. Bu çerçevenin çekirdeği iki derin sinir ağı yapısından oluşuyor. Bunlar Yığılmış Otomatik Kodlayıcı (Stacked Autoencode -SAE) ve Evrişimsel Sinir Ağı (Convolutional Neural Network -CNN) olarak biliniyor.
Özet olarak bakıldığında, yapay zekânın veri merkezlerinde kullanımında çok çeşitli avantajları bulunuyor. Yapay zekâ daha verimli veri merkezlerinin oluşturulmasına izin verirken operasyonel riskleri en aza indirebiliyor. Akıllı veriler ile kullanıcı deneyimini iyileştirerek müşteri kaybını minimalize ediyor. Enerji tüketimini kontrol ederek hem tasarruf sağlıyor hem de çevre üzerinde olumlu etkiler yaratabiliyor. Sistem girişleri ve veri analizi ile güvenlik açısından daha güçlü bir koruma imkânı sunuyor ve son olarak sistemsel hata tespitlerinde ve düzeltme işlemlerinde kaynak tespiti için hızlı hareket avantajı sağlıyor.
Türkiye’de siber güvenlik ve bilişim teknolojileri alanında önemli çalışmalara imza atan STM Savunma Teknolojileri, Mühendislik ve Ticaret A.Ş (STM), yenilikçi veri merkezi çözümleriyle veri yönetimini en üst seviyelere çıkarmak amacıyla çalışma ve faaliyetlerini geliştirerek sürdürüyor.
Veri merkezleri projelerini hayata geçiren STM bu kapsamda veri merkezi ve bilgi teknolojileri alanında; gereksinim ve mevcut durum analizinden, tasarım ve gerçekleştirme faaliyetlerine, güncel bilgi teknolojileri uygulamalarından aktif-aktif veri merkezi çözümlerine kadar uluslararası sertifikalara sahip tecrübeli personeli ile kritik kurum ve kuruluşların iş sürekliliğini maksimum seviyeye çıkarıyor.
STM bu faaliyetleriyle başta güvenlik ve savunma sanayii olmak üzere kamu ve özel sektörde faaliyet gösteren organizasyonlar için veri merkezi ve bilgi teknolojileri alanlarında tüm gerekli hizmetleri sağlıyor.
STM’nin yürüttüğü veri merkezi projeleri arasında; SSB Veri Merkezi, EGM Siber Suçlarla Mücadele Dairesi Veri Merkezi, EGM Bilgin Projesi HPC Veri Merkezi, EGM İş Sürekliliği Veri Merkezi ve FKM, EGM İş Sürekliliği Veri Merkezi Modernizasyon Projesi, TSK Yedek Bilgi Sistemleri Merkezi ve Jandarma Genel Komutanlığı Haberleşme ve Güvenlik Projesi yer alıyor.
Yapay zekânın teknolojinin her alanında olan etkisi veri merkezleri üzerinde de görülüyor. Gelecekte daha da güçlenmesi beklenen yapay zekâ teknolojilerinin dünyanın hızla artan veri trafiği ve ihtiyacında kritik öneme sahip veri merkezlerinde daha fazla yer edinmesiyle güvenli, hızlı ve enerji verimli ağların oluşturulması her alanda sonsuz avantajlar sunma potansiyeli gösteriyor. Yapay zekâyı hızla benimseyerek sistemlerine dahil edecek veri merkezi hizmet kuruluşlarının müşteri memnuniyeti ve hizmet kalitesinde bir üst seviyeye çıkması ve rakiplerinin önüne geçmesi kaçınılmaz görünüyor. Veri merkezlerinin geleceğinin her teknolojik gelişmede olduğu gibi yapay zekâ ile daha da güçleneceği düşünülüyor.