Microsoft, Copilotun ücretsiz sürümüne GPT-4 Turbo LLMyi ekliyor
2023 yılı Microsoft'un Copilot'u gerçeğe dönüştürmek için yapay zekaya ve OpenAI ile ortaklığına büyük yatırım yaptığı bir yıl oldu.
Kuantum LLM'leri artık HuggingFace'de mevcut ve H20, Text Gen ve GPT4All gibi AI ekosistemleri bilgisayarınıza LLM dersleri yüklemenize olanak tanıyor ; artık ücretsiz, esnek ve güvenli bir AI seçeneğine sahipsiniz. İşte hemen deneyebileceğiniz en iyi 9 yerel/çevrimdışı LLM!
İçindekiler
Hermes 2 Pro, Nous Research tarafından ince ayarlanmış gelişmiş bir dil modelidir. Şirketin kendisi tarafından geliştirilen yeni tanıtılan Fonksiyon Çağrısı ve JSON veri kümeleriyle birlikte, OpenHermes 2.5 veri kümesinin güncellenmiş ve sadeleştirilmiş bir versiyonunu kullanıyor. Bu model Mistral 7B mimarisine dayanmaktadır ve çoğunluğu sentetik verilerden oluşan GPT-4 kalitesinde veya daha iyi 1.000.000 talimat/konuşma ile eğitilmiştir.
Örnek |
Hermes 2 Pro GPTQ |
---|---|
Model boyutu |
7,26 GB |
Parametreler |
7 milyar |
niceleme |
4-bit |
Tip |
Mistral |
Lisans |
Apache 2.0 |
Mistral 7B'deki Hermes 2 Pro, AGIEval, BigBench Reasoning, GPT4All ve TruthfulQA gibi çeşitli ölçütlerde gelişmiş performans sunan yeni amiral gemisi Hermes 7B modelidir. Gelişmiş yetenekleri sayesinde kod üretimi, içerik oluşturma ve konuşma tabanlı yapay zeka uygulamaları gibi pek çok doğal dil işleme (NLP) görevi için uygun hale geliyor.
Zephyr, yardımcı asistanlar olarak eğitilmiş bir dizi dil modelidir. Zephyr-7B-Beta, serinin ikinci modeli olup, halka açık sentetik veri kümelerinin bir karışımı üzerinde Doğrudan Tercih Optimizasyonu (DPO) kullanılarak Mistral-7B-v0.1'den geliştirilmiştir.
Örnek |
Zephyr 7B Beta |
---|---|
Model boyutu |
7,26 GB |
Parametreler |
7 milyar |
niceleme |
4-bit |
Tip |
Mistral |
Lisans |
Apache 2.0 |
Zephyr-7B-Beta, eğitim veri kümelerinin yerleşik hizalamasını ortadan kaldırarak, MT-Bench gibi kıyaslamalarda gelişmiş performans göstererek çeşitli görevlerdeki kullanışlılığını artırıyor. Ancak bu ayarlama, bazı şekillerde istendiğinde sorunlu metin üretimine yol açabilir.
Falcon'un bu nicemlenmiş versiyonu, TII'nin ham Falcon-7b modeli üzerinde geliştirilen yalnızca kod çözücü mimarisine dayanmaktadır. Temel Falcon modeli, kamuya açık İnternet'ten elde edilen 1,5 trilyon adet dolaşımdaki token kullanılarak eğitildi. Apache 2 lisanslı komut tabanlı yalnızca kod çözücü modeli olan Falcon Instruct, dil çevirisi ve veri toplama için kullanılacak bir model arayan küçük işletmeler için mükemmeldir.
Örnek |
Falcon-7B-Talimat |
---|---|
Model boyutu |
7,58 GB |
Parametreler |
7 milyar |
niceleme |
4-bit |
Tip |
Şahin |
Lisans |
Apache 2.0 |
Ancak Falcon'un bu versiyonu ince ayar yapmak için ideal değildir ve sadece çıkarım yapmak için tasarlanmıştır. Falcon'u ince ayarlamak istiyorsanız, NVIDIA DGX veya AMD Instinct AI Accelerators gibi kurumsal düzeyde eğitim donanımlarına erişim gerektirebilecek ham modeli kullanmanız gerekecek.
GPT4All-J Groovy, Nomic AI tarafından ayarlanmış ve Apache 2.0 lisansı altında lisanslanmış, yalnızca kod çözücüye sahip bir modeldir. GPT4ALL-J Groovy, komutlardan metin üretmede harika olduğu bilinen orijinal GPT-J modeline dayanmaktadır. GPT4ALL -J Groovy, hızlı ve yaratıcı metin oluşturma uygulamaları için harika olan konuşma tabanlı bir modele dönüştürüldü. Bu, GPT4All-J Groovy'yi şiir, müzik veya hikaye olsun, içerik oluşturucularının yazma ve kompozisyon konusunda onlara yardımcı olmak için ideal hale getirir.
Örnek |
GPT4ALL-J Harika |
---|---|
Model boyutu |
3,53 GB |
Parametreler |
7 milyar |
niceleme |
4-bit |
Tip |
GPT-J |
Lisans |
Apache 2.0 |
Ne yazık ki, temel GPT-J modeli yalnızca İngilizce veri kümesi üzerinde eğitildi; bu da, bu ince ayarlı GPT4ALL-J modelinin bile yalnızca İngilizce dilinde konuşabildiği ve metin oluşturma uygulamaları gerçekleştirebildiği anlamına geliyor.
DeepSeek Coder V2, programlamayı ve matematiksel muhakemeyi geliştiren gelişmiş bir dil modelidir. DeepSeek Coder V2, birden fazla programlama dilini destekler ve genişletilmiş bağlam uzunluğu sunar, bu da onu geliştiriciler için çok yönlü bir araç haline getirir.
Örnek |
DeepSeek Coder V2 Talimatı |
---|---|
Model boyutu |
13 GB |
Parametreler |
33 milyar |
niceleme |
4-bit |
Tip |
Derin Arama |
Lisans |
Apache 2.0 |
DeepSeek Coder V2, selefine kıyasla kod, muhakeme ve genel yeteneklerle ilgili görevlerde önemli iyileştirmeler gösteriyor. Programlama dillerine desteği 86'dan 338'e, bağlam uzunluğunu ise 16K'dan 128K token'a çıkarıyor. Karşılaştırmalı testlerde GPT-4 Turbo, Claude 3 Opus ve Gemini 1.5 Pro gibi modelleri kriptografik ve matematiksel karşılaştırmalarda geride bırakıyor.
Mixtral-8x7B, Mistral AI tarafından geliştirilen uzman modeller (MoE) karışımıdır. Her MLP'de 8 uzman bulunmakta olup, toplam 45 milyar parametre bulunmaktadır. Ancak, çıkarım sırasında token başına yalnızca iki uzman etkinleştiriliyor, bu da onu hesaplama açısından verimli hale getiriyor ve hız ve maliyeti 12 milyar parametreli bir modele benzetiliyor.
Örnek |
Karıştırma tral-8x7B |
---|---|
Model boyutu |
12 GB |
Parametreler |
45 milyar (8 uzman) |
niceleme |
4-bit |
Tip |
Mistral Milli Eğitim Bakanlığı |
Lisans |
Apache 2.0 |
Mixtral, 32 bin token'lık bir bağlam uzunluğunu destekliyor ve çoğu kıyaslamada Llama 2'yi 70 milyar geride bırakarak GPT-3.5 performansına eşit veya onu geçiyor. İngilizce, Fransızca, Almanca, İspanyolca ve İtalyanca dahil olmak üzere birçok dili akıcı bir şekilde konuşabilmesi, onu çeşitli NLP görevleri için çok yönlü bir seçim haline getiriyor.
Wizard-Vicuna GPTQ, LlaMA modeline dayanan Wizard Vicuna'nın kuantum versiyonudur. Kamuya açık çoğu LLM'nin aksine, Wizard-Vicuna sansürsüz ve ilişkilendirilmemiş bir modeldir. Bu, modelin diğer modellerin çoğuyla aynı güvenlik ve etik standartlarına sahip olmadığı anlamına geliyor.
Örnek |
Sihirbaz-Vicuna-30B-Sansürsüz-GPTQ |
---|---|
Model boyutu |
16,94 GB |
Parametreler |
30 milyar |
niceleme |
4-bit |
Tip |
LaMA |
Lisans |
GPL3 |
Yapay zeka hizalama kontrolü için bir sorun teşkil edebilmesine rağmen, sansürsüz bir LLM'ye sahip olmak, herhangi bir kısıtlama olmaksızın cevap vermesine izin vererek modeldeki en iyiyi ortaya çıkarır. Bu ayrıca kullanıcıların, yapay zekanın belirli bir komut doğrultusunda nasıl davranması veya yanıt vermesi gerektiği konusunda kendi özel hizalamalarını eklemelerine de olanak tanır.
Benzersiz bir öğrenme yöntemi kullanılarak eğitilmiş bir modeli test etmek mi istiyorsunuz? Orca Mini, Microsoft'un Orca araştırma makalesinin resmi olmayan bir uygulamasıdır. Bu model, veri setinin yalnızca istemler ve yanıtlar yerine açıklamalarla doldurulduğu bir öğretmen-öğrenci öğrenme yaklaşımı kullanılarak eğitilmiştir. Teoride bu, öğrenciyi daha akıllı yapmalıdır çünkü model, geleneksel LLM'nin aksine sadece girdi ve çıktı çiftlerine bakmak yerine sorunu anlayabilir.
Llama 2 , orijinal Llama LLM'nin devamı niteliğinde olup geliştirilmiş performans ve çok yönlülük sunmaktadır. 13B Chat GPTQ varyantı, İngilizce diyalog için optimize edilmiş konuşma tabanlı yapay zeka uygulamaları için ayarlanmıştır.
Yukarıda listelenen modellerin bazıları teknik özellikler açısından birden fazla versiyona sahiptir. Genel olarak, daha yüksek özelliklere sahip versiyonlar daha iyi sonuçlar üretir ancak daha güçlü bir donanım gerektirirken, daha düşük özelliklere sahip versiyonlar daha düşük kalitede sonuçlar üretir ancak daha düşük donanımlarda çalışabilir. Bilgisayarınızın bu modeli çalıştırıp çalıştıramayacağından emin değilseniz, önce daha düşük özelliklere sahip bir sürümü deneyin, ardından performans düşüşünün artık kabul edilebilir olmadığını hissedene kadar denemeye devam edin.
2023 yılı Microsoft'un Copilot'u gerçeğe dönüştürmek için yapay zekaya ve OpenAI ile ortaklığına büyük yatırım yaptığı bir yıl oldu.
Nvidia, OpenAI, Anthropic, Meta ve Google'ın önde gelen tescilli modelleriyle aynı performansı gösterdiği söylenen açık kaynaklı büyük dil modeli (LLM)'ni duyurdu.
iPhone ve diğer Apple donanım ürünlerini üretmesiyle bilinen Foxconn, üretim ve tedarik zinciri yönetimini iyileştirmek için kullanılması amaçlanan FoxBrain adlı ilk büyük dil modelini (LLM) duyurarak herkesi şaşırttı.
Elon Musk'ın SpaceX şirketi, 3 Ocak'ta terminale ihtiyaç duymadan uzak bölgelere mobil hizmet sağlayabilen ilk altı uyduyu fırlattı.
NVIDIA'nın bir sonraki amiral gemisi ekran kartı GeForce RTX 5060 Ti, 16 GB ve 8 GB versiyonlarıyla gelecek ve nisan ortasında piyasaya sürülmesi bekleniyor.
Palo Alto Networks'ün güvenlik uzmanları, Google arama sonuçları aracılığıyla kötü amaçlı yazılım yayan yeni bir saldırı kampanyası keşfetti.
Google, Play Store'a küçük ama uzun zamandır beklenen yeni bir özellik ekliyor.
Tim Cook, 2011 yılında CEO'luk görevini devraldıktan sonra, kamuoyunun Apple'a olan güvenini korumak amacıyla, üst düzey çalışanları çalışmalarını gerektirmeden maaş ödeyerek elinde tuttu.
Dead Pool, Fortnite'a v34.21 güncellemesinden bu yana eklenen Mortal Kombat temalı alanlardan biri.
Gök gürültüsü ve şimşek sırasında telefonunuzu kullanmalı mısınız? Cep telefonu sinyalleri yıldırımdan etkilenebilir mi? Uçak modunda olan ama hala wifi kullanan bir telefon yıldırım çeker mi?
Avustralya ve Çin'den araştırmacılardan oluşan bir ekibin yaptığı yeni araştırma, Dünya'ya ilk yağmurun yaklaşık 4 milyar yıl önce, yani daha önce düşünülenden 500 milyon yıl önce düştüğünü öne sürüyor.
Bu cisim, Ukrayna'nın Çernobil bölgesinde, tarihin en korkunç radyoaktif sızıntılarından birinin sonucu olarak bulunuyor. Bu nesne dev bir ayak biçiminde olduğundan Fil Ayağı olarak anılır.
Oyun Kodu Chu Cong Xung Xung Xung, oyuncuların oyuna ilk girdiklerinde destek alabilmelerini sağlar. Bu ödüller oyuna daha hızlı alışmanızı sağlayacak ve kesinlikle yeni oyuncuların ilgisini çekecektir. Hediye almak için aşağıya Chu Cong Xung Xung Xung oyun kodunu girin.
Kuantum LLM'leri artık HuggingFace'de mevcut ve H20, Text Gen ve GPT4All gibi AI ekosistemleri bilgisayarınıza LLM dersleri yüklemenize olanak tanıyor; artık ücretsiz, esnek ve güvenli bir AI seçeneğine sahipsiniz.
Android telefonlardaki varsayılan ses kaydedicisi kusurludur; etkili gürültü engelleme ve güçlü düzenleme araçları gibi temel özelliklerden yoksundur.
Bazı durumlarda, örneğin Youtube uygulamasını kullanarak video izlerken, rahatsız edilmemek için zil sesi ve mesaj tonunun sesini kısmak istediğinizde, her uygulama için varsayılan bir ses seviyesi belirlemek faydalı olabilir.
Pembe simler ve kırmızı oje özellikle Sevgililer Günü tırnaklarınız için çok uygun. Bundan daha güzel ne olabilir? Bu yazımızda Sevgililer Günü'nde tatlı bir buluşma için güzel tırnak tasarımlarını sizler için özetleyeceğiz.
Hayatın değişimlerine uyum sağlamanız için daha fazla motivasyona sahip olmanızı sağlayacak kendinizi değiştirmeye dair durumlar ve başlıklar aşağıda yer almaktadır.