Paralel Evrişimli Işık Tabanlı İşlemcilerle Güçlendirilmiş Yapay Zeka

Dijital çağımızda veri trafiğinin katlanarak büyümesi, işlem gücü üzerinde bazı gerçek zorluklar ortaya çıkarmaktadır. Ayrıca, örneğin sürücüsüz araçlar ve konuşma tanıma alanlarında makine öğrenimi ve yapay zekanın ortaya çıkmasıyla, yükseliş eğilimi devam edecek. Tüm bunlar, mevcut bilgisayar işlemcilerinin talebi karşılama kabiliyetine ağır bir yük bindiriyor.

Şimdi, uluslararası bir bilim insanı ekibi sorunu çözmek için gün ışığına çıktı. Araştırmacılar, bilgiyi çok daha hızlı ve paralel olarak işleyerek geleneksel elektronik çipleri geride bıraktığı gösterilen ışık tabanlı veya “fotonik” işlemcileri kullanarak işleme ve veri depolamayı tek bir yongada birleştiren yeni bir yaklaşım ve mimari geliştirdiler.

Bilim insanları, kendileri de makine öğrenme algoritmaları için kullanılan sinir ağlarının (insan beynini simüle eden algoritmalar) omurgası olan matris vektör çarpımları için bir donanım hızlandırıcı geliştirdiler. Farklı ışık dalga boyları (renkler) birbirini etkilemediğinden, araştırmacılar paralel hesaplamalar için birden fazla ışık dalga boyu kullanabilirler. Ancak bunu yapmak için, ışık kaynağı olarak çip tabanlı bir “frekans tarağı” olan EPFL’de geliştirilen başka bir yenilikçi teknolojiyi kullandılar.

Matris Çarpımları Hafif İşlemci Şeması

Işıkta çalışan matris çarpımları için bir işlemcinin şematik gösterimi. Kredi: Oxford Üniversitesi

Araştırmanın liderlerinden biri olan EPFL’den Profesör Tobias Kippenberg, “Çalışmamız yapay sinir ağları alanında frekans taraklarını ilk uygulayan çalışma” diyor. Profesör Kippenberg’in araştırması, frekans taraklarının geliştirilmesine öncülük etti. “Frekans tarağı, aynı fotonik çipte birbirinden bağımsız olarak işlenen çeşitli optik dalga boyları sağlıyor.”

Araştırmayı yöneten profesörlerden biri olan Münster Üniversitesi’nden kıdemli ortak yazar Wolfram Pernice, “Makine öğrenimi alanındaki görevleri hızlandırmak için ışık tabanlı işlemciler, karmaşık matematiksel görevlerin yüksek hızlarda ve çıktılarda işlenmesini sağlıyor,” diyor. “Bu, grafik kartları veya TPU’lar (Tensor Processing Unit) gibi özel donanımlar gibi elektronik veri aktarımına dayanan geleneksel yongalardan çok daha hızlı.”

Fotonik çipleri tasarlayıp imal ettikten sonra, araştırmacılar onları elle yazılmış sayıları tanıyan bir sinir ağında test ettiler. Biyolojiden esinlenen bu ağlar, makine öğrenimi alanında bir kavramdır ve öncelikle görüntü veya ses verilerinin işlenmesinde kullanılır. Şu anda temeli olan Johannes Feldmann, “Girdi verileri ile bir veya daha fazla filtre arasındaki evrişim işlemi – örneğin bir görüntüdeki kenarları tanımlayabilir, matris mimarimize çok uygundur” diyor. Oxford Üniversitesi Malzeme Departmanı. Nathan Youngblood (Oxford Üniversitesi) ekliyor: “Dalgaboyu çoğullamadan yararlanmak, daha yüksek veri hızlarına ve bilgi işlem yoğunluklarına, yani daha önce ulaşılamayan işlemci alanı başına işlemlere izin veriyor.”

Çalışmayı finanse eden AB projesi FunComp’a liderlik eden Exeter Üniversitesi’nden David Wright, “Bu çalışma, Avrupa işbirliğine dayalı araştırmanın gerçek bir vitrini” diyor. “Dahil olan her araştırma grubu kendi yöntemleriyle dünya lideri olurken, bu çalışmayı gerçekten mümkün kılan tüm bu parçaları bir araya getiriyordu.”

Çalışma yayınlandı Doğa bu hafta ve geniş kapsamlı uygulamalara sahip: yapay zekada daha yüksek eşzamanlı (ve enerji tasarrufu) veri işleme, daha doğru tahminler için daha büyük sinir ağları ve daha kesin veri analizi, teşhisler için büyük miktarda klinik veri, sürücüsüz araçlarda sensör verileri ve daha fazla depolama alanı, bilgi işlem gücü ve uygulama yazılımı ile genişleyen bulut bilişim altyapıları.