Kimlik numarası, şifre, banka hesabı... Uzmanlara göre yapay zekâ ile sohbet ederken dikkatli olunmalı. Fark etmeden verdiğiniz bilgiler geri dönüşü olmayan riskler yaratabilir.
Günümüzde yapay zekâ araçları gündelik hayatın vazgeçilmez bir parçası hâline gelirken, kullanıcıların bu teknolojilerle paylaştığı bilgiler de her geçen gün artıyor. Ancak yapay zekâyla konuşmak, sanıldığı kadar risksiz olmayabilir. Özellikle gizli ya da hassas bilgiler söz konusu olduğunda, dikkatli olunması gerekiyor.
ChatGPT gibi sohbet robotları, kullanıcılardan gelen verileri daha iyi yanıtlar vermek için kullanabiliyor. Üstelik bazı detayları yalnızca bir kez söylemiş olsanız bile, sonraki konuşmalarda hatırlayabiliyor. Doğum tarihinizden sevdiğiniz yemeklere, hobilerinizden mesleğinize kadar birçok bilgi bu sohbetlerde açığa çıkabiliyor.
Her ne kadar daha doğru ve kişiselleştirilmiş yanıtlar almak için bazı bilgileri paylaşmak kaçınılmaz olsa da, uzmanlar bazı sınırların çizilmesi gerektiğini söylüyor.
İşte yapay zekâya asla vermemeniz gereken 5 bilgi, Wall Street Journal’ın derlemesine göre:
Kimlik bilgileri
T.C. kimlik numarası, pasaport bilgileri, doğum tarihi, adres ya da telefon numarası gibi kişisel bilgiler, hiçbir yapay zekâ platformuyla paylaşılmamalı. Bu veriler, güvenlik açığı yaşanması durumunda suistimal edilebilir.
Sağlık test sonuçları
Tıbbi veriler, özellikle adınız ve diğer kimlik bilgileriyle birlikte verildiğinde büyük bir gizlilik riski taşır. Test sonuçlarını paylaşmak istiyorsanız, önce kişisel bilgilerinizin bulunduğu bölümleri silmeyi unutmayın.
Finansal hesap bilgileri
Banka hesap numaraları, yatırım bilgileri veya kredi kartı detayları gibi finansal veriler, kötü niyetli kişilerin eline geçerse ciddi kayıplara yol açabilir.
Şirket verileri
Çalıştığınız kuruma ait gizli bilgiler, müşteri verileri ya da şirket içi belgeler gibi içerikler ChatGPT gibi platformlara yüklenmemeli. Örneğin Samsung, bir çalışanın kaynak kodunu yapay zekâyla paylaşmasının ardından şirket genelinde ChatGPT kullanımını yasaklamıştı.
Şifreler ve güvenlik soruları
Sosyal medya ya da e-posta hesaplarınıza ait şifreler, PIN kodları ya da güvenlik sorularının cevaplarını paylaşmak ciddi güvenlik riskleri yaratır. Bu tür bilgilerin güvenliğini sağlamak, tamamen sizin sorumluluğunuzda.
Veri güvenliği için alınabilecek önlemler
Yapay zekâ şirketleri verileri eğitim amacıyla kullanabiliyor. OpenAI, kullanıcıları gizli bilgiler paylaşmamaları konusunda açıkça uyarıyor. Ancak bazı basit adımlarla verilerinizi daha güvenli hâle getirebilirsiniz:
-Sık sık mesaj geçmişinizi silin.
-“Geçici Sohbet” özelliğini kullanın (ChatGPT'de sağ üstte yer alır).
-Ayarlar kısmından sohbet geçmişinin model eğitiminde kullanılmasını devre dışı bırakın.
Bu 5 şeyi ChatGPT'ye söylemeyin!
Kimlik numarası, şifre, banka hesabı... Uzmanlara göre yapay zekâ ile sohbet ederken dikkatli olunmalı. Fark etmeden verdiğiniz bilgiler geri dönüşü olmayan riskler yaratabilir.
Kimlik numarası, şifre, banka hesabı... Uzmanlara göre yapay zekâ ile sohbet ederken dikkatli olunmalı. Fark etmeden verdiğiniz bilgiler geri dönüşü olmayan riskler yaratabilir.
Günümüzde yapay zekâ araçları gündelik hayatın vazgeçilmez bir parçası hâline gelirken, kullanıcıların bu teknolojilerle paylaştığı bilgiler de her geçen gün artıyor. Ancak yapay zekâyla konuşmak, sanıldığı kadar risksiz olmayabilir. Özellikle gizli ya da hassas bilgiler söz konusu olduğunda, dikkatli olunması gerekiyor.
ChatGPT gibi sohbet robotları, kullanıcılardan gelen verileri daha iyi yanıtlar vermek için kullanabiliyor. Üstelik bazı detayları yalnızca bir kez söylemiş olsanız bile, sonraki konuşmalarda hatırlayabiliyor. Doğum tarihinizden sevdiğiniz yemeklere, hobilerinizden mesleğinize kadar birçok bilgi bu sohbetlerde açığa çıkabiliyor.
Her ne kadar daha doğru ve kişiselleştirilmiş yanıtlar almak için bazı bilgileri paylaşmak kaçınılmaz olsa da, uzmanlar bazı sınırların çizilmesi gerektiğini söylüyor.
İşte yapay zekâya asla vermemeniz gereken 5 bilgi, Wall Street Journal’ın derlemesine göre:
Kimlik bilgileri
T.C. kimlik numarası, pasaport bilgileri, doğum tarihi, adres ya da telefon numarası gibi kişisel bilgiler, hiçbir yapay zekâ platformuyla paylaşılmamalı. Bu veriler, güvenlik açığı yaşanması durumunda suistimal edilebilir.
Sağlık test sonuçları
Tıbbi veriler, özellikle adınız ve diğer kimlik bilgileriyle birlikte verildiğinde büyük bir gizlilik riski taşır. Test sonuçlarını paylaşmak istiyorsanız, önce kişisel bilgilerinizin bulunduğu bölümleri silmeyi unutmayın.
Finansal hesap bilgileri
Banka hesap numaraları, yatırım bilgileri veya kredi kartı detayları gibi finansal veriler, kötü niyetli kişilerin eline geçerse ciddi kayıplara yol açabilir.
Şirket verileri
Çalıştığınız kuruma ait gizli bilgiler, müşteri verileri ya da şirket içi belgeler gibi içerikler ChatGPT gibi platformlara yüklenmemeli. Örneğin Samsung, bir çalışanın kaynak kodunu yapay zekâyla paylaşmasının ardından şirket genelinde ChatGPT kullanımını yasaklamıştı.
Şifreler ve güvenlik soruları
Sosyal medya ya da e-posta hesaplarınıza ait şifreler, PIN kodları ya da güvenlik sorularının cevaplarını paylaşmak ciddi güvenlik riskleri yaratır. Bu tür bilgilerin güvenliğini sağlamak, tamamen sizin sorumluluğunuzda.
Veri güvenliği için alınabilecek önlemler
Yapay zekâ şirketleri verileri eğitim amacıyla kullanabiliyor. OpenAI, kullanıcıları gizli bilgiler paylaşmamaları konusunda açıkça uyarıyor. Ancak bazı basit adımlarla verilerinizi daha güvenli hâle getirebilirsiniz:
-Sık sık mesaj geçmişinizi silin.
-“Geçici Sohbet” özelliğini kullanın (ChatGPT'de sağ üstte yer alır).
-Ayarlar kısmından sohbet geçmişinin model eğitiminde kullanılmasını devre dışı bırakın.
TEKNOLOJİ Haberleri
08.04.2025 - 17:45
08.04.2025 - 07:01
08.04.2025 - 07:01
08.04.2025 - 07:00
07.04.2025 - 11:15
07.04.2025 - 07:01
07.04.2025 - 07:00
07.04.2025 - 07:00
07.04.2025 - 07:00
07.04.2025 - 07:00