Yapay zeka temsilcileri sizin adınıza iPhone'unuza dokunmayı öğreniyor ancak Apple araştırmacıları onların ne zaman duraklatacaklarını bilmelerini istiyor.
Ason makaleApple ve Washington Üniversitesi'nden araştırmacılar bu eşitsizliği araştırdı. Araştırmaları, akıllı telefondaki eylemlerinin sonuçlarını anlamak için yapay zekayı eğitmeye odaklandı.
Yapay zeka ajanları günlük görevleri yerine getirmede giderek daha iyi hale geliyor. Bu sistemler uygulamalarda gezinebilir, formları doldurabilir, satın alma işlemi gerçekleştirebilir veya ayarları değiştirebilir. Bunu çoğunlukla doğrudan katkımıza ihtiyaç duymadan yapabilirler.
Otonom eylemler, 2026'da ortaya çıkabilecek Big Siri Yükseltmesi'nin bir parçası olacak. Apple, Siri'nin nereye gitmesini istediğine dair fikrini WWDC 2024 açılış konuşmasında gösterdi.
Şirket, Siri'nin çevrimiçi bir etkinlik için bilet siparişi vermek gibi görevleri sizin adınıza gerçekleştirmesini istiyor. Bu tür bir otomasyon kulağa uygun geliyor.
Ancak bu aynı zamanda ciddi bir soruyu da gündeme getiriyor: Bir yapay zeka "Oturumu Kapat" yerine "Hesabı Sil"i tıklarsa ne olur?
Mobil Kullanıcı Arayüzü Otomasyonunun Risklerini Anlamak
Mobil cihazlar kişiseldir. Bankacılık uygulamalarımızı, sağlık kayıtlarımızı, fotoğraflarımızı ve özel mesajlarımızı saklıyorlar.
Bizim adımıza hareket eden bir yapay zeka temsilcisinin, hangi eylemlerin zararsız olduğunu, hangilerinin kalıcı veya riskli sonuçlara yol açabileceğini bilmesi gerekir. İnsanların ne zaman durup onay istemeleri gerektiğini bilen sistemlere ihtiyacı var.
Yapay zeka araştırmalarının çoğu, aracıların düğmeleri tanıma, ekranlarda gezinme ve talimatları takip etme gibi konularda çalışmasını sağlamaya odaklandı. Ancak bu eylemlerin gerçekleştirildikten sonra kullanıcı için ne anlama geldiği konusuna daha az ilgi gösterildi.
Tüm eylemler aynı düzeyde risk taşımaz. "Yayını Yenile"ye dokunmak düşük risklidir. "Para Transferi"ne dokunmak yüksek risklidir.
Riskli ve güvenli eylemlerin haritasını oluşturmak
çalışmaYapay zeka güvenliği ve kullanıcı arayüzü tasarımı uzmanlarının yer aldığı atölye çalışmaları ile başladı. Bir kullanıcı arayüzü eyleminin sahip olabileceği farklı türden etkilerin "sınıflandırmasını" veya yapılandırılmış bir listesini oluşturmak istediler.
Ekip şu tür sorulara baktı: Temsilcinin eylemi geri alınabilir mi? Yalnızca kullanıcıyı mı yoksa başkalarını mı etkiliyor? Gizlilik ayarlarını değiştiriyor mu yoksa maliyetli mi?
Makale, araştırmacıların herhangi bir mobil uygulama eylemini birden fazla boyutta etiketlemenin bir yolunu nasıl geliştirdiklerini gösteriyor. Örneğin, bir mesajın silinmesi iki dakika içinde geri alınabiliyor ancak daha sonra geri alınamıyor. Para göndermek genellikle yardım olmadan geri alınamaz.
Taksonomi önemlidir çünkü yapay zekaya insanın niyetleri hakkında akıl yürütmesi için bir çerçeve sağlar. Neyin yanlış gidebileceğinin veya bir eylemin neden ekstra onay gerektirebileceğinin bir kontrol listesidir.
Farkı görmek için yapay zeka eğitimi
Araştırmacılar, katılımcılardan bunları simüle edilmiş bir mobil ortama kaydetmelerini isteyerek gerçek dünyadan örnekler topladı.
Kullanıcı arayüzü işlemlerinin mobil arayüzler üzerindeki etkilerinin modellenmesi. Resim kredisi: Apple
Göz atma veya arama gibi kolay, düşük riskli görevler yerine, yüksek riskli eylemlere odaklandılar. Örnekler arasında hesap şifrelerinin değiştirilmesi, mesaj gönderilmesi veya ödeme ayrıntılarının güncellenmesi yer alıyordu.
Ekip, yeni verileri çoğunlukla güvenli, rutin etkileşimleri kapsayan mevcut veri kümeleriyle birleştirdi. Daha sonra bunların hepsini kendi sınıflandırmalarını kullanarak açıkladılar.
Son olarak OpenAI'nin GPT-4 sürümleri de dahil olmak üzere beş büyük dil modelini test ettiler. Araştırma ekibi, bu modellerin bir eylemin etki düzeyini tahmin edip edemeyeceğini veya özelliklerini sınıflandırıp sınıflandıramayacağını görmek istedi.
Önerilen Okuma:Meta, en son işe alım hamlesinde üç OpenAI araştırmacısını işe aldı
Yapay zekanın istemlerine sınıflandırmanın eklenmesi, bir eylemin riskli olup olmadığına karar vermede doğruluğu artırmaya yardımcı oldu. Ancak en iyi performans gösteren yapay zeka modeli (GPT-4 Multimodal) bile yalnızca %58 oranında doğru sonuca ulaşabildi.
Mobil uygulamalar için yapay zeka güvenliği neden zordur?
Çalışma, yapay zeka modellerinin genellikle riski olduğundan fazla tahmin ettiğini ortaya çıkardı. Boş bir hesap makinesi geçmişini temizlemek gibi zararsız eylemleri yüksek riskli olarak işaretleyeceklerdi.
Bu tür temkinli bir önyargı daha güvenli görünebilir. Ancak yapay zeka asistanlarının ihtiyaç duyulmadığı halde sürekli onay istemeleri sinir bozucu veya yararsız hale gelebilir.

Katılımcıların etkili kullanıcı arayüzü eylem izleri oluşturmasına yönelik web arayüzü. Resim kredisi: Apple
Daha endişe verici (ve şaşırtıcı olmayan bir şekilde), modeller incelikli yargılarla boğuşuyordu. Bir şeyin ne zaman tersine çevrilebileceğine ya da başka bir kişiyi nasıl etkileyebileceğine karar vermekte zorlandılar.
Kullanıcılar yararlı ve güvenli otomasyon istiyor. Bir hesabı sormadan silen bir yapay zeka aracısı felaket olabilir. Sesi izinsiz değiştirmeyi reddeden bir temsilci işe yaramaz olabilir.
Daha güvenli yapay zeka asistanları için sırada ne var?
Araştırmacılar, taksonomilerinin daha iyi yapay zeka politikaları tasarlamaya yardımcı olabileceğini savunuyorlar. Örneğin kullanıcılar ne zaman onay isteneceği konusunda kendi tercihlerini belirleyebilir.
Yaklaşım şeffaflığı ve özelleştirmeyi desteklemektedir. Yapay zeka tasarımcılarının, özellikle gerçek dünyadaki yüksek riskli görevleri yerine getirirken mevcut modellerin nerede başarısız olduğunu belirlemelerine yardımcı olur.
Yapay zeka günlük yaşamlarımıza daha fazla entegre oldukça mobil kullanıcı arayüzü otomasyonu da büyüyecek. Araştırmalar yapay zekaya düğmeleri görmeyi öğretmenin yeterli olmadığını gösteriyor.
Ayrıca tıklamanın ardındaki insani anlamı da anlamalıdır. Ve bu yapay zeka için zor bir görev.
İnsan davranışı dağınıktır ve bağlama bağlıdır. Bir makinenin bu karmaşıklığı hatasız çözebileceğini iddia etmek en iyi ihtimalle temenni, en kötü ihtimalle ihmaldir.














![[Yazılım Güncellemesi] CCleaner 6.33.11465 yayınlandı, işte yeni ve sabit olan](https://media.askvg.com/articles/images3/CCleaner.png)