OpenAI bir silahlanma yarışı başlattı ve zayiat bizim güvenliğimiz oldu

ChatGPT’nin 2022’nin sonlarında piyasaya sürülmesinden ve yapay zekanın (AI) yaygınlaştırılmasına yaptığı önemli katkının ardından, teknoloji ve teknoloji dışı şirketler, köklü işletmeler ve yeni girişimler de dahil olmak üzere çeşitli kuruluşların ilgisinde bir artış oldu. Hepsi yapay zeka asistanlarını piyasaya sürüyor ve halkın dikkatini çekmek için yenilikçi uygulamalar veya geliştirmeler sergiliyor.

Teknoloji liderlerinin yapay zekanın tüm görevleri yerine getirebileceğine ve birden fazla rolü bünyesinde barındırabileceğine dair güvencesi, yapay zeka asistanlarının hayatımızda çeşitli işlevleri üstlenmesine yol açtı. İş ve ilişkilerde rehberlik ve destek sunan güvenilir danışmanlar ve danışmanlar haline geldiler. Ayrıca kişisel bilgilerimizi, sırlarımızı ve düşüncelerimizi dikkatle dinleyen terapistler, arkadaşlar ve sırdaşlar olarak da işlev görürler.

Yapay zeka destekli hizmetler sunan şirketler, bu tür görüşmelerin gizli niteliğinin bilincindedir ve verilerimizi güvende tutmak için güçlü koruma önlemleri uyguladıklarını garanti ederler. Ama onların sözlerine gerçekten güvenebilir miyiz?

Yapay zeka asistanları — dost mu, düşman mı?

Ber-Gurion Üniversitesi araştırmacıları tarafından Mart ayında yayınlanan yeni çalışma, gizli bilgilerimizin risk altında olabileceğini ortaya çıkardı. Bilim adamları, AI asistanının yanıtlarının şifresini, şifrelemelerini atlayarak olağanüstü bir hassasiyetle çözmek için bir yöntem geliştirdiler. Bu teknik, Microsoft’un Copilot’u ve OpenAI’nin ChatGPT-4’ü gibi büyük platformların sistemlerindeki bir tasarım kusurundan yararlanıyor ancak Google’ın Gemini’si etkilenmeden kalıyor.

Ayrıca çalışma, ChatGPT gibi bir sohbete müdahale etme aracı geliştiren bir saldırganın, fazladan bir çalışma gerektirmeden bu yöntemi diğer benzer platformlara da uygulayabileceğini ortaya çıkardı. Sonuç olarak, bu araç bilgisayar korsanları arasında yaygınlaştırılabilir ve yaygın olarak kullanılabilir.

ChatGPT de dahil olmak üzere yapay zeka yardımcılarının oluşturulma sürecindeki güvenlik açıklarını ortaya çıkaran daha önce araştırmalar yapılmıştı. Çeşitli akademik kurumlardan ve Google DeepMind’dan elde edilen bulgular 2023’ün sonlarına doğru yayınlandı. Bu araştırmacılar, belirli yönlendirmeler sağlayarak ChatGMT’nin eğitim verilerinin ezberlenmiş kısımlarını okumasını sağlayabileceklerini ortaya çıkardılar.

Araştırmacılar, ChatGPT’den kitaplardan ve şiirlerden tam pasajları, web sayfası bağlantılarını, farklı kullanıcı tanımlayıcılarını, Bitcoin cüzdan adreslerini ve kodlama komut dosyalarını başarıyla aldı.

Kötü niyetli aktörler, eğitim sürecini manipüle etmek için kasıtlı olarak aldatıcı istemler oluşturabilir veya botları yanlış verilerle besleyebilir. Bu, gizli kişisel ve mesleki bilgilerin veri kümesine dahil edilmesiyle sonuçlanabilir.

Açık kaynaklı modeller ek güvenlik zorlukları sunar. Örneğin, bir çalışma, bir saldırganın Hugging Face’in dönüştürme hizmetini manipüle edebileceğini ve gönderilen herhangi bir modelin kontrolünü ele geçirebileceğini ortaya çıkardı. Böyle bir ihlalin sonuçları ağırdır. Davetsiz misafir, hedeflenen modeli kendi kötü amaçlı modeliyle değiştirebilir, zararlı modelleri depolara yükleyebilir ve hatta özel veri kümesi depolarına erişim sağlayabilir.

Microsoft ve Google’ın da aralarında bulunduğu bu kuruluşlar, Hugging Face’te dönüştürme hizmeti aracılığıyla değişiklik yapılan toplam 905 modele sahip olup, bilgisayar korsanlığı saldırılarına açık olabilir ve halihazırda ihlal edilmiş olabilir.

İşler daha da kötüleşebilir

Yapay zeka asistanlarına daha fazla yetenek kazandırmak cazip gelebilir ancak aynı zamanda siber saldırılara hedef olma riskini de artırır.

Geçtiğimiz yıl Bill Gates, blogunda gelişmiş yapay zekanın (AI) gelecekteki rolü hakkında yazmıştı. Bu yapay zekayı, tüm kişisel ve iş cihazlarımıza erişim izni verilecek “kapsamlı bir asistan” veya “aracı” olarak adlandırdı. İşlevi, bu cihazlardan toplanan verileri birleştirmek ve incelemek, bilgi ve görevleri yöneterek bizim için verimli ve etkili bir yardımcı görevi görmek olacaktır.

Gates’in blogda yazdığı gibi:

İsterseniz bir temsilci tüm faaliyetlerinizde size yardımcı olabilir. Çevrimiçi etkileşimlerinizi ve gerçek dünyadaki konumlarınızı takip etme izniyle, katıldığınız insanlar, yerler ve etkinlikler hakkında güçlü bir anlayış geliştirecektir. Kişisel ve iş ilişkileriniz, hobileriniz, tercihleriniz ve programınız elde edilecektir. Bir şeye yardım etmek veya bir karar vermenizi istemek için nasıl ve ne zaman devreye gireceğini siz seçeceksiniz.

Bu bir bilim kurgu değil ve düşündüğümüzden daha erken gerçekleşebilir. Yapay zeka cihazları için açık kaynaklı bir ekosistem olan Project 01, yakın zamanda 01 Light adında bir yapay zeka asistanını piyasaya sürdü. Şirket, X’te “01 Light, ev bilgisayarınızı kontrol eden taşınabilir bir ses arayüzüdür” diye yazdı. Ekranınızı görebilir, uygulamalarınızı kullanabilir ve yeni beceriler öğrenebilir”

OpenAI bir silahlanma yarışı başlattı ve zayiat bizim güvenliğimiz oldu

Kişisel bir yapay zeka asistanına sahip olmak oldukça heyecan verici olabilir. Ancak güvenlik endişelerinin derhal ele alınması çok önemlidir. Geliştiricilerin olası saldırıları önlemek için sistemi ve kodu güvenlik açıklarına karşı kapsamlı bir şekilde kontrol etmesi gerekir. Bu ajan kötü niyetli aktörlerin tuzağına düşerse, yalnızca bilgileriniz değil, aynı zamanda ilgili kişi veya kuruluşlar da dahil olmak üzere tüm hayatınız risk altında olabilir.

Kendimizi koruyabilir miyiz?

Mart ayının sonlarından itibaren ABD Temsilciler Meclisi, Microsoft’un Copilot uygulamasının yasama personeli tarafından kullanımına karşı katı bir kısıtlama getirdi.

Temsilciler Meclisi İdari Sorumlusu Catherine Szpindor’a göre Microsoft Copilot uygulaması, House verilerini yanlışlıkla yetkisiz bulut hizmetlerine aktarabileceği için Siber Güvenlik Ofisi tarafından potansiyel bir risk olarak tanımlandı.

Nisan ayının başında Siber Güvenlik İnceleme Kurulu (CSRB), Microsoft’u Çinli bilgisayar korsanlarının 2023 yazında Amerikan hükümet yetkililerinin e-posta hesaplarını ihlal etmesine izin veren bir dizi güvenlik açığıyla suçlayan bir rapor yayınladı. Bu olaylar önlenebilirdi ve yapılması gereken olaylardı. engellendi.

Raporun bulgularına göre, Microsoft’un mevcut güvenlik uygulamaları yetersiz ve önemli iyileştirmeler gerektiriyor; bu durum Copilot ürünlerini de etkileyebilir.

Apple, Amazon, Samsung ve Spotify gibi çeşitli teknoloji firmalarının yanı sıra JPMorgan, Citi ve Goldman Sachs gibi finansal kuruluşlar daha önce personellerinin yapay zeka asistanlarını kullanmasını kısıtlamıştı.

Geçen yıl OpenAI ve Microsoft gibi teknoloji devleri, etik açıdan sağlam yapay zeka geliştirme ve kullanma taahhüdünde bulundu. Ancak şu ana kadar bu yönde ciddi bir adım atılmadı.

Taahhütlerde bulunmak yeterli değildir; Yetkililerin ve karar vericilerin bunun yerine somut eylemlere ihtiyacı var. Bu arada, gizli kişisel veya iş ayrıntılarının paylaşılmaması tavsiye edilir.

Hepimiz botları toplu olarak kullanmaktan kaçınırsak, dinlenme şansımızı artırabilir, gerekli güvenlik özelliklerini geliştirerek işletmeleri ve içerik oluşturucuları güvenliğimize öncelik vermeye zorlayabiliriz.

Dr. Merav Ozair is a guest author for CryptoMoon and is developing and teaching emerging technologies courses at Wake Forest University and Cornell University. She was previously a FinTech professor at Rutgers Business School, where she taught courses on Web3 and related emerging technologies. She is a member of the academic advisory board at the International Association for Trusted Blockchain Applications (INATBA) and serves on the advisory board of EQM Indexes — Blockchain Index Committee. She is the founder of Emerging Technologies Mastery, a Web3 and AI end-to-end consultancy shop, and holds a PhD from Stern Business School at NYU.

Bu makale genel bilgilendirme amaçlıdır ve hukuki veya yatırım tavsiyesi olarak düşünülmemelidir. Burada ifade edilen görüşler, düşünceler ve fikirler yalnızca yazara aittir ve CryptoMoon’un görüş ve fikirlerini yansıtmayabilir veya temsil etmeyebilir.

2024-04-10 23:53