Önde gelen tarayıcı şirketi Opera, Opera One tarayıcısına geliştirici akışında yaklaşık 50 model ailesinden 150 yerel LLM (Large Language Model) varyantı için deneysel destek eklediğini duyurdu.
LLM’ler, OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) modelleri gibi, büyük miktarda metin verisi ile eğitilmiş gelişmiş yapay zeka sistemleridir ve insan benzeri metinleri anlamak ve üretmek için kullanılırlar. Metin üretimi, çeviri ve özetleme gibi çeşitli doğal dil işleme görevleri için kullanılırlar.
Opera’ya göre, yerel LLM’lerin büyük bir tarayıcıdan yerleşik bir özellik aracılığıyla kolayca erişilebildiği ve yönetilebildiği ilk kez oluyor. Yerel AI modelleri, Opera’nın çevrimiçi Aria AI hizmetine tamamlayıcı bir ek olarak sunuluyor. Desteklenen yerel LLM’ler arasında şunlar bulunmaktadır:
* Meta’dan Llama
Vicuna
Google’dan Gemma
Mixtral from Mistral AI
“Yerel LLM’leri bu şekilde tanıtmak, Opera’nın hızla gelişen yerel AI alanında deneyimler ve bilgi oluşturma yollarını keşfetmeye başlamasını sağlıyor,” dedi Krystian Kolondra, Opera’da Tarayıcılar ve Oyunlardan Sorumlu İcra VP’si.
Yerel Büyük Dil Modelleri kullanmak, kullanıcıların verilerinin cihazlarında yerel olarak saklandığı anlamına geliyor ve bu da kullanıcıların bilgileri bir sunucuya göndermeden üretken yapay zeka kullanmalarına olanak tanıyor, dedi Opera.
Yapay zeka tartışmalarında ortaya çıkan sorunlar arasında veri gizliliği yer alıyor. Bu konuda, üç önde gelen merkeziyetsiz AI projesi; Fetch.ai, SingularityNET (SNET) ve Ocean Protocol’un birleşerek merkeziyetsiz bir AI ekosistemi oluşturma kararı aldığı görülüyor.
“Bugün itibarıyla, Opera One Geliştirici kullanıcıları, girdilerini işlemek için istedikleri modeli seçme fırsatına sahip. Modelleri test etmek için, en yeni Opera Geliştirici sürümüne geçmeleri ve yeni özelliği aktifleştirmek için birkaç adımı izlemeleri gerekiyor,” dedi Opera.
“Yerel bir LLM seçmek, ardından bunu kendi makinesine indirecektir. Genellikle her bir varyant için 2-10 GB yerel depolama alanı gerektiren yerel LLM, bir kullanıcı AI ile yeni bir sohbet başlatana veya Aria’yı tekrar açana kadar, Opera’nın yerel tarayıcı AI’sı Aria’nın yerine kullanılacaktır.”
Bizi Twitter’da en son gönderiler ve güncellemeler için takip edin
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
YAPAY ZEKÂ | Opera Tarayıcı, Yerel İndirme ve Çevrimdışı Kullanım için Büyük AI Modellerini Entegre Ediyor
Önde gelen tarayıcı şirketi Opera, Opera One tarayıcısına geliştirici akışında yaklaşık 50 model ailesinden 150 yerel LLM (Large Language Model) varyantı için deneysel destek eklediğini duyurdu.
LLM’ler, OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) modelleri gibi, büyük miktarda metin verisi ile eğitilmiş gelişmiş yapay zeka sistemleridir ve insan benzeri metinleri anlamak ve üretmek için kullanılırlar. Metin üretimi, çeviri ve özetleme gibi çeşitli doğal dil işleme görevleri için kullanılırlar.
Opera’ya göre, yerel LLM’lerin büyük bir tarayıcıdan yerleşik bir özellik aracılığıyla kolayca erişilebildiği ve yönetilebildiği ilk kez oluyor. Yerel AI modelleri, Opera’nın çevrimiçi Aria AI hizmetine tamamlayıcı bir ek olarak sunuluyor. Desteklenen yerel LLM’ler arasında şunlar bulunmaktadır:
“Yerel LLM’leri bu şekilde tanıtmak, Opera’nın hızla gelişen yerel AI alanında deneyimler ve bilgi oluşturma yollarını keşfetmeye başlamasını sağlıyor,” dedi Krystian Kolondra, Opera’da Tarayıcılar ve Oyunlardan Sorumlu İcra VP’si.
Yerel Büyük Dil Modelleri kullanmak, kullanıcıların verilerinin cihazlarında yerel olarak saklandığı anlamına geliyor ve bu da kullanıcıların bilgileri bir sunucuya göndermeden üretken yapay zeka kullanmalarına olanak tanıyor, dedi Opera.
Yapay zeka tartışmalarında ortaya çıkan sorunlar arasında veri gizliliği yer alıyor. Bu konuda, üç önde gelen merkeziyetsiz AI projesi; Fetch.ai, SingularityNET (SNET) ve Ocean Protocol’un birleşerek merkeziyetsiz bir AI ekosistemi oluşturma kararı aldığı görülüyor.
“Bugün itibarıyla, Opera One Geliştirici kullanıcıları, girdilerini işlemek için istedikleri modeli seçme fırsatına sahip. Modelleri test etmek için, en yeni Opera Geliştirici sürümüne geçmeleri ve yeni özelliği aktifleştirmek için birkaç adımı izlemeleri gerekiyor,” dedi Opera.
“Yerel bir LLM seçmek, ardından bunu kendi makinesine indirecektir. Genellikle her bir varyant için 2-10 GB yerel depolama alanı gerektiren yerel LLM, bir kullanıcı AI ile yeni bir sohbet başlatana veya Aria’yı tekrar açana kadar, Opera’nın yerel tarayıcı AI’sı Aria’nın yerine kullanılacaktır.”
Bizi Twitter’da en son gönderiler ve güncellemeler için takip edin