Yapay olarak üretilen fotoğrafların tehdidiyle ilgili bir Vanity Fair makalesinde Fred Ritchin, gerçekçi görünümlü görüntülerin artık kurgu olup olmadıklarını ayırt etmenin giderek zorlaştığını belirtiyor.
OpenAI, Stable Diffusion ve Midjourney gibi yapay zeka sistemleri, var olmayan insanların ve yerlerin veya hiç yaşanmamış olayların fotoğraflarına benzer görüntüler üretmek için metin girdilerini kullanarak saniyeler içinde resimler oluşturabilir. Bu, sentetik görüntülerin, gerçekliği bozma, meşru fotoğrafların itibarsızlaştırılması ve benzer görüntülerin görgü tanıklığı kanıtını zayıflatması potansiyeli nedeniyle sorunlu olabilir.
Makale, eğitim amaçlı kullanılan görüntülerin çoğunun sanatçılar ve tasarımcılar gibi bazı insanlar tarafından sağlandığını ve bu insanların izni olmadan kullanıldığını düşündürdüğü için bu sistemlerin ortaya çıkardığı endişeler hakkında sorular soruyor. Getty Images gibi bazı şirketlere karşı açılan birkaç dava arasında, Getty Images bu ay Stability AI’ya 12 milyondan fazla fotoğrafının izinsiz kullanımı nedeniyle “akıldışı bir ihlal” olarak nitelendirdiği 1.8 trilyon dolarlık bir dava açtı.
Sentetik görüntülerin, toplumu destabilize etme, tartışmaları çarpıtma ve bireyleri zarar verebilme potansiyeli vardır, ancak gerçekliğimizin ne olduğu konusundaki algımızı da karartabilir.
Milyonlarca benzer görüntü yayıldıkça, benzer görüntülerin görgü tanıklığı kanıtını zayıflatırlar. Günümüzde, gerçek fotoğrafların yerine yapay görüntüler daha kolay bir şekilde reddedilebilir. Bu nedenle, yapay görüntülerin kaynak ve geçmişini sertifikalandırmak için standartlar geliştirmek, manipüle edilmemiş fotoğrafları tanımlamak ve resimlere daha fazla bağlam sağlamak önemlidir.
Özetle, sentetik görüntülerin yükselişi giderek artan bir endişe konusu. Gerçekçi görünümlü görüntülerin kurgu veya kurgu olmadığını ayırt etmek giderek zorlaşıyor. Bu sistemlerin, önyargıları yeniden ayarlamak ve önceden fotoğraflar için kapalı olan alanları keşfetmek de dahil olmak üzere birçok faydası olmasına rağmen, gerçekliği bozabilir, meşru fotoğrafların itibarını zayıflatabilir ve benzer görüntülerin görgü tanıklığı kanıtını zayıflatabilir. Bu endişeleri ele almak, medya içeriğinin kaynak ve geçmişini sertifikalandırmak, manipüle edilmemiş fotoğrafları tanımlamak ve resimlere daha fazla bağlam sağlamak gibi önlemler gerektirir. Bu yönde çaba, halk, şirketler ve hükümetlerin yanı sıra gazeteciler, eğitimciler ve teknologlar tarafından hızla çalışılması gereken bir süreçtir.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.