Telefon

OpenAI'dan GPT-4o Metin, Ses ve Görüntüde Duygusal Etkileşim

OpenAI, pazartesi günü GPT 4o adını verdiği yepyeni bir yapay zeka modelini duyurdu. Şirketin iddiasına göre bu model, “daha doğal insan bilgisayar etkileşimi”ne bir adım daha yaklaşıyor. Yeni model, metin, ses ve görüntü kombinasyonlarını girdi olarak kabul edebilir ve üç formatta da çıktı üretebilir. Ayrıca duyguları tanıyabilir, konuşma sırasında müdahale etmenize izin verir ve konuşma sırasında neredeyse insan hızında yanıt verebilir.

OpenAI CTO Mira Murati’nin canlı yayında yaptığı sunumda, “GPT 4o’nun özel yanı, GPT 4 seviyesindeki zekayı ücretsiz kullanıcılar da dahil olmak üzere herkese getirmesidir,” dedi. “Bu, kullanım kolaylığı konusunda büyük bir adım atmamızın ilk adımıdır.”

Sunum sırasında, OpenAI, GPT 4o’nun canlı olarak İngilizce ve İtalyanca arasında çeviri yaparken, bir araştırmacının gerçek zamanlı olarak bir lineer denklemi çözmesine yardımcı olurken, başka bir OpenAI yöneticisinin nefes alış verişlerini dinleyerek derin nefes alma konusunda rehberlik sağladığını gösterdi.

GPT 4o’nun “o” harfi, modelin çoklu yeteneklerine atıfta bulunarak “omni” anlamına geliyor. OpenAI, GPT 4o’nun metin, görüntü ve ses üzerine eğitildiğini belirtti, yani bütün girdi ve çıktılar aynı sinir ağı tarafından işlenir. Bu, şirketin önceki modelleri olan GPT 3.5 ve GPT 4’ün aksine, kullanıcıların sadece konuşarak soru sormasına izin vermekte ancak konuşmayı metne çevirmekte olan modellerden farklıdır. Bu da tonu ve duyguyu dışarıda bırakır ve etkileşimleri yavaşlatır.

OpenAI, yeni modeli birkaç hafta içinde ücretsiz ChatGPT kullanıcıları da dahil olmak üzere herkese sunacak ve ayrıca ChatGPT’nin masaüstü sürümünü de (başlangıçta Mac için) çıkartacak ve başlangıçta ödeme yapan kullanıcılar erişebilecek.

OpenAI’nın duyurusu, Google’ın yıllık geliştirici konferansı olan Google I/O’dan bir gün önce geldi. OpenAI’nın GPT 4o’yu duyurmasının ardından Google da kendi AI sohbet botu Gemini'nin benzer yeteneklere sahip bir sürümünü paylaştı.

Paylaş: