DeepSeek, OpenAI'ın verileriyle eğitilmiş olabilir - upcorn

DeepSeek, OpenAI’ın verileriyle eğitilmiş olabilir

OpenAI tarafından paylaşılan bilgilere göre Çin merkezli DeepSeek, OpenAI’ın modellerinden elde edilen bilgilerle eğitildi.

OpenAI, Çin merkezli yeni rakibi DeepSeek’in kendi yapay zeka modelinden elde edilen verileri “uygunsuz” bir şekilde kullanarak kendi sohbet botununu geliştirmiş olabileceğini öne sürdü.

OpenAI sözcüsü, “ismini veremediği bazı Çinli şirketlerin” distilasyon adı verilen bir teknikle ABD merkezli yapay zeka şirketlerine yetişmeye çalıştığını belirtti. Distilasyon, bir büyük dil modelinin başka bir model tarafından üretilen verilerle eğitilmesi anlamına geliyor ve bu yöntem genellikle LLM’lerin kullanım koşulunda yasaklanıyor.

“DeepSeek’in modellerimizi uygunsuz bir şekilde distile etmiş olabileceğine dair bazı göstergeleri inceliyoruz ve konu hakkında daha fazla bilgiye ulaştıkça paylaşacağız.” diyen OpenAI sözcüsü, olayın bir güvenlik ihlali olarak değerlendirilmediğini de ekledi. DeepSeek tarafı ise iddialarla alakalı bir yorum yapmadı.

OpenAI sözcüsü ayrıca ABD hükümetinin de bu konuda harekete geçebileceğine işaret etti: “Teknolojimizi korumak için agresif ve proaktif önlemler alıyoruz ve burada geliştirilen en yetenekli modellerin korunması adına ABD hükümetiyle yakın iş birliği içinde çalışmaya devam edeceğiz.”

Beyaz Saray’ın yapay zeka danışmanı David Sacks ise Fox News’e yaptığı açıklamada DeepSeek’in OpenAI modelini distile ettiğine inandığını ancak Beyaz Saray’ın bu konuda resmi bir adım atıp atmayacağının henüz netleşmediğini açıkladı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili İçerikler