ChatGPT gibi büyük ölçekli makine öğrenimi modellerini sunucularda çalıştırmak, bu modelleri eğitmek ve sürdürmek için gereken önemli bilgi işlem kaynakları nedeniyle pahalı olabilir. Ek olarak modelin boyutu ve karmaşıklığı, işlenen veri miktarı ve kullanıcı talebinin düzeyi gibi faktörlere bağlı olarak maliyet değişebilir. Peki yapay zeka dil modellerini kullanan kuruluşların ödemek zorunda kaldığı paralar ne durumda?
ChatGPT şu anda dünyadaki en popüler dil modeli ve son raporlara göre bu yapay zekayı çalıştırmanın maliyeti oldukça yüksek. OpenAI’ın doğal dil işleme (NLP) hizmetleri sağlayan dil modeli, önemli bir bilgi işlem gücü gerektiriyor ve dil modelinin çalıştırılması günlük 700.000 dolara mal olabiliyor. Yüksek maliyetin sebebi ise esas olarak öğretim planları oluşturmak ve kişisel verileri optimize etmek dahil olmak üzere pahalı sunuculardan kaynaklanıyor.
ChatGPT-4 Daha Maliyetli
Ayrıca SemiAnalysis Baş Analisti Dylan Patel GPT-3 modelinin maliyetini tahmin ederken, ChatGPT en son GPT-4 modelini kullandıktan sonra artık daha da pahalı olabileceğini öne sürüyor. Yapay zekayı açık tutulması ve kullanıcılara sunulmasının maliyetleri, eğitim maliyetini bir hayli aşıyor. OpenAI’ın dil modellerini kullanan şirketler son birkaç yıldır yüksek fiyatlar ödüyor ve sebebi ise bu yüksek maliyetler gibi görünüyor.
Yapay zeka modelini çalıştırmanın ve Latitude’un yapay zeka zindan oyunu girişimi için Amazon AWS bulut sunucuları satın almanın maliyeti ayda 200.000 dolara kadar çıkıyor. Microsoft üretken yapay zeka modellerinin işletme maliyetini azaltmak için Athena kod adlı bir yapay zeka çipi geliştiriyor ancak çip yalnızca Microsoft ve OpenAI tarafından dahili kullanım için gelecek yıl gibi erken bir tarihte piyasaya sürülecek gibi görünüyor.
Yapay zeka gelişiminin bu denli hızlı olması ve inanılmaz maliyetlere sebep olması ise sürdürülebilirlik sorularını akıllara getiriyor.