Geçen sonbaharda güçlü sohbet robotu ChatGPT’nin ortaya çıkışından bu yana, dünya yapay zekanın hayatımızın her alanına yerleştirildiği bir gelecekten bahsediyor. Buzdolaplarından askeri dronlara kadar bağımsız kararlar veren makineler ve böyle bir geleceğin olası riskleri ve tehlikeleri hakkında.
AI ile ilgili gazete makaleleri genellikle, Skynet adlı akıllı, küresel bir bilgisayar ağının hayatta kalan son insanları avlamak için katil androidleri işe aldığı bir film olan “Terminator” filminden görüntülerle resmedilir. Saçma, abartılı fikir? Bazı saygın araştırmacılar, yapay zekanın insanlık için varoluşsal bir tehdit oluşturabileceğinden korkuyor. Ve 30 Mart’ta, Tesla CEO’su Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak gibi önde gelen girişimciler, yüzlerce yapay zeka araştırmacısıyla birlikte, önde gelen yapay zeka laboratuvarlarını GPT-4’ten daha güçlü yapay zeka sistemlerini eğitmeyi bırakmaya çağıran bir açık mektup imzaladılar. , en az altı ay süreyle hemen durdurun. Hızla gelişen teknoloji, kitlesel işsizliğe yol açabilir, kitlesel dezenformasyona yol açabilir ve insanların olup bitenler üzerindeki kontrolünü kaybetmesine neden olabilir.
İmzacılar, “Yüksek performanslı yapay zeka sistemleri yalnızca etkilerinin olumlu olduğundan ve risklerinin yönetilebilir olduğundan emin olduğumuzda geliştirilmelidir” diye yazıyor.
Ara, “bağımsız harici uzmanlar tarafından titizlikle incelenecek ve izlenecek olan gelişmiş AI tasarımı ve geliştirmesi için bir dizi ortak güvenlik protokolü geliştirmek ve uygulamak için” kullanılacaktır.
Veri koruma ve insan hakları için bir tehdit olarak AI sistemleri
Bu, AB düzeyindeki siyasi karar vericilerin “AI Yasası” ile tam olarak başarmak istediği şeydir. 2021’de Avrupa Komisyonu, yapay zeka kullanan yazılım ürünleri için kapsamlı bir yasal çerçevenin ilk sürümünü yayınladı. Bu, henüz mevcut olmayan “süper zeki” AI sistemlerinin çok abartılı varoluşsal risklerini kontrol altına almak veya yasaklamakla ilgili değil. Bunun yerine, AB şu anda kullanılmakta olan veya toplumun olası tüm alanlarında yakında kullanılabilecek olan sistemlerin hayati tehlike arz etmeyen ancak önemsiz olmayan riskleriyle de ilgilenmek istemektedir.
2020’de bir mahkeme “akıllı” gözetim sistemini yasa dışı ilan etti.Görüntü muhafazası/imago
Hollanda’daki bir skandal sırasında, bir hükümet yapay zeka sistemi vatandaşlar hakkında istihdam, borç ve sosyal haklar ile eğitim ve barınma kayıtları gibi daha önce ayrı ayrı saklanan verileri özenle topladı ve ardından bunları otomatik olarak tanımlamak için gizli bir algoritma kullanarak analiz etti. fayda dolandırıcılığı yapma riski daha yüksek olan kişiler. 2020’de bir mahkeme, temel insan haklarını ihlal ettiği için “akıllı” gözetim sistemini yasa dışı ilan etti. AB Yapay Zeka Yasası, tam olarak bu tür şeffaf olmayan, otomatik karar verme sistemlerini yasaklayabilir veya en azından katı bir şekilde düzenleyebilir. Bu yılın bir noktasında, muhtemelen sonbaharda, AI Yasası metni üzerinde anlaşmaya varmak için AB Komisyonu, AB Konseyi ve Avrupa Parlamentosu arasında sözde üçlemeler yapılacak.
“Makinelere değil, bunları gerçekleştiren insanlara odaklanmalıyız”
Berlin’deki Hertie Okulu’nda etik ve teknoloji profesörü olan Joanna Bryson, önerilen mevzuatın temel endişesini şöyle açıklıyor: “Asıl mesele, yazılımın sosyal hizmetlerde olduğu gibi potansiyel olarak hayati bir konu olup olmadığıdır. İnsanların AI kararlarının sonucunu doğrulaması için gereken tek şey yeterli bilgidir. AI Yasasının söylediği tek şey, daha fazla hesap verebilirlik istediğimizdir. Sorumlu tutabileceğimiz tek kişi insanlardır. Makinelere değil, bunları gerçekleştiren insanlara odaklanmalıyız. Avrupa’nın yaptığı da tam olarak bu. Avrupa bu alanda liderdir.”
Joanna Bryson, Hertie Okulu’nda Etik ve Teknoloji Profesörüdür.Bath Üniversitesi
AI Yasası, AI sistemlerini insanların sağlığını, güvenliğini veya temel haklarını nasıl etkileyebileceklerine göre “kabul edilemez”, “yüksek”, “sınırlı” ve “minimum” risk kategorilerine ayırır. “Kabul edilemez”, “bir kişinin davranışını psikolojik veya fiziksel zarar verebilecek şekilde manipüle etmek için bilinçaltı teknikleri” kullanan sistemler, örneğin kamusal alanlarda devlet “sosyal puanlama” veya gerçek zamanlı biyometrik tanımlama sistemleri gibi sistemlerdir.
Trafik ışığı koalisyonu için, AI tarafından biyometrik sonradan tanımlama artık sırayla
Ayrıntılar burada tartışılır. Nikolett Aszódi, “toplumla ilgili algoritmik karar verme süreçlerini ele almayı ve sınıflandırmayı” amaçlayan Berlin’deki bir STK olan AlgorithmWatch’ta politika uzmanı olarak çalışıyor. Röportajda Aszódi, trafik ışığı koalisyonunun koalisyon anlaşmasında kamusal alanda yüz tanıma ve biyometrik tanımlama gibi AI kontrollü süreçleri yasaklamak istediğini hatırlıyor. “Pozisyonunu değiştirdi: artık gerçek zamanlı uzaktan biyometrik tanımlama istemiyor, ancak biyometrik sonrası tanımlama iyi.”
“Bir kazada veya bir soygunda, kurbanı veya faili bulup bulamayacağımızı görmek için CCTV görüntülerini alabilir, yüz tanıma ve bir veri tabanı kullanabiliriz.” Bu, bazı politikacılara umut verici gelebilir. Ancak bu tür teknikler, “gerçek zamanlı yüz tanıma” yasaklanmış olsa bile, nihai olarak vatandaşların AI destekli kimlik tespiti, Stasi’nin yalnızca hayal edebileceği kapsamlı hükümet gözetimine kapı açabilir. Nikolett Aszódi, “Temel haklar açısından bakıldığında, bunun asla mümkün olmasını istemiyoruz” diyor.
Yapay zekanın öngörülemeyen ve zararlı bir şey yapması durumunda bir “kapatma anahtarının” mevcut olduğu söyleniyor.Görüntü muhafazası/imago
AI Yasası, ordu tarafından veya ulusal güvenlik adına kullanılan yazılımlar için istisnalar getiriyor – oldukça esnek bir terim. Aszódi, Macaristan’ın eleştirel gazetecileri ve sivil toplum aktivistlerini dinleyen Pegasus yazılımını kullandıktan sonra, “Macar veri koruma yetkilileri, her şeyin ulusal güvenlik çerçevesinde yapıldığı için herhangi bir yasayı veya temel hakları ihlal etmediklerini belirledi” diye açıklıyor.
“Güvenlik” istisnası, Avrupa’nın dış sınırlarında kullanılan yapay zeka teknolojilerini de içerebilir. Nikolett Aszódi: “Şu anda potansiyel göçmenleri, kaçak insanları izlemek için çok çeşitli teknolojiler kullanıyoruz. Dillerini, belki de lehçelerini kontrol etmek veya iddia ettikleri kişi olup olmadıklarını öğrenmek için insanların soylarına bakan sistemler de var.” AlgorithmWatch, bu tür yapay zeka uygulamalarının temel haklarımızla bağdaşmadığı için yasak olduğu görüşünde. AB’nin bu kadar kapsamlı bir yasağı yönetip yönetmeyeceği ve ne ölçüde yöneteceği belirsizliğini koruyor.
Bir AB yasasının maliyeti ne olacak?
Gerçek dünyadaki AI uygulamalarının sadece küçük bir kısmı yasaklanmış olabilecek “kabul edilemez” risk sınıfına giriyor. Diğerleri, örneğin tıp, ulaşım, eğitim, göç veya yargı gibi hassas alanlarda “yüksek riskli” olarak sınıflandırılır. Bu tür AI’ları kullanan şirketlerin bir dizi düzenlemeye uyması gerekir. Örneğin, risk yönetimi sistemlerini tanıtın ve güvenlik testleri gerçekleştirin. AI eğitim verilerinin hatasız ve önyargısız olmasını sağlamalıdırlar. Yazılım, örneğin algoritmanın yapısı aracılığıyla kapsamlı bir şekilde belgelenmelidir. Ve sürekli insan denetimi mümkün olmalıdır. AI’nın beklenmedik ve zararlı bir şey yapması durumunda her zaman bir “kapatma anahtarı” mevcut olmalıdır.
Bu tür koşullar bazı meslek kuruluşları tarafından şiddetle eleştirilir. Google ve Amazon gibi şirketler tarafından finanse edilen Amerikan lobi grubu “Center for Data Innovation”, önerilen düzenlemenin Avrupa’yı yapay zeka geliştirme yeri olarak etkileyeceğini ve “AB’deki şirketler ve tüketiciler için önemli maliyetler gerektireceğini” yazıyor. getirmek.”
Düşünce kuruluşu uyarıyor: “Yapay Zeka Yasası önümüzdeki beş yıl içinde Avrupa ekonomisine 31 milyar avroya mal olacak ve yapay zeka yatırımlarını neredeyse yüzde 20 azaltacak.”
Hertie Okulu’ndan Joanna Bryson, bu argümanı ikna edici bulmuyor. Veri İnovasyonu Merkezi, AB düzenleyici çerçevesine uymanın maliyeti hakkında yanlış iddialarda bulunuyor, diyor. Yönetmeliğin gerektirdiği önlemlerin maliyetlerinin çoğu, sektörlerinde en iyi uygulamaları takip eden şirketlerin bütçelerine zaten dahil edilmelidir. Kısacası, onların görüşüne göre, AB yasasının maliyeti, Avrupa’da yapay zekanın gelişmesine engel olmamalıdır.
Uzmanlar uyarıyor: AB sektörü çok hızlı ve kapsamlı bir şekilde düzenlememeli
Ines Montani, yaklaşık 30 kişiyi istihdam eden bir Berlin şirketi olan ExplosionAI’nin kurucu ortağı ve genel müdürüdür. ExplosionAI, doğal dil işleme alanında yapay zeka programları oluşturan geliştiriciler tarafından kullanılan yazılım araçları sağlar. Uygulamalar, herhangi bir sektörde büyük miktarda metni daha iyi organize etmek ve analiz etmek için kullanılır.
Temel olarak, Ines Montani AI Yasasını memnuniyetle karşılıyor. İnsanlara zarar veren “sihirli bir yapay zekaya” değil, gerçek dünyadaki uygulamalara odaklandığından memnun: “Bu, insanların gerçekte ne yaptığı, bunun gerçek insanları nasıl etkilediği, hangi ürünlerin olduğu, hangi endüstrilerin var olduğu ile ilgili. soru: AI – kötü ya da değil.”
Yapay zekanın nasıl kullanılacağı ve sonuçlarının ne olacağı öncelikle siyasi bir sorudur.Görüntü muhafazası/imago
Ancak bunlar gelişmekte olan teknolojiler olduğu için Montani, AB’nin endüstrilerini çok hızlı ve kapsamlı bir şekilde düzenlemek isteyeceğinden korkuyor. Sonunda, amacınıza hizmet etmeyen ve daha sonra değiştirilmesi zor bir yasayla karşılaşabileceğinizi söylüyor. Ayrıca, yanlış bir şey yapan ve insanları düzenlemenin yanlış nedenlerle kötü olduğuna inandıran bir şeyle karşılaşırsak, AB’nin güvenilirliği sorgulanabilir. “Bu çok zarar verici olabilir çünkü genel olarak burada çok fazla pozitif potansiyel var ve bunun boşa gittiğini görmekten nefret ederim.”
Aslında yapay zekanın hayatımızı, ekonomimizi ve toplumumuzu zenginleştirme potansiyeline sahip olduğu konusunda neredeyse herkes hemfikir. AI araştırmacılarından gelen açık uyarı mektubunda “AI ile insanlık müreffeh bir gelecek yaşayabilir” diyor. Joanna Bryson, yapay zekanın nasıl kullanılacağının ve sonuçlarının ne olacağının öncelikle siyasi bir mesele olduğunu söylüyor.
Bu, açık kaynak girişimimizin bir parçası olarak gönderilen bir giriştir. İle açık kaynak Berliner Verlag, serbest yazarlara ve ilgilenen herkese ilgili içeriğe ve profesyonel kalite standartlarına sahip metinler sunma fırsatı verir. Seçilen katkılar yayınlanacak ve onurlandırılacaktır.
Bu gönderi, Creative Commons Lisansı (CC BY-NC-ND 4.0) altında lisanslanmıştır. Yazarın ve Berliner Zeitung’un adının belirtilmesi ve herhangi bir işlemenin hariç tutulması koşuluyla, genel halk tarafından ticari olmayan amaçlarla serbestçe kullanılabilir.
Geri bildiriminiz var mı? Bize yazın! briefe@Haberler
AI ile ilgili gazete makaleleri genellikle, Skynet adlı akıllı, küresel bir bilgisayar ağının hayatta kalan son insanları avlamak için katil androidleri işe aldığı bir film olan “Terminator” filminden görüntülerle resmedilir. Saçma, abartılı fikir? Bazı saygın araştırmacılar, yapay zekanın insanlık için varoluşsal bir tehdit oluşturabileceğinden korkuyor. Ve 30 Mart’ta, Tesla CEO’su Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak gibi önde gelen girişimciler, yüzlerce yapay zeka araştırmacısıyla birlikte, önde gelen yapay zeka laboratuvarlarını GPT-4’ten daha güçlü yapay zeka sistemlerini eğitmeyi bırakmaya çağıran bir açık mektup imzaladılar. , en az altı ay süreyle hemen durdurun. Hızla gelişen teknoloji, kitlesel işsizliğe yol açabilir, kitlesel dezenformasyona yol açabilir ve insanların olup bitenler üzerindeki kontrolünü kaybetmesine neden olabilir.
İmzacılar, “Yüksek performanslı yapay zeka sistemleri yalnızca etkilerinin olumlu olduğundan ve risklerinin yönetilebilir olduğundan emin olduğumuzda geliştirilmelidir” diye yazıyor.
Ara, “bağımsız harici uzmanlar tarafından titizlikle incelenecek ve izlenecek olan gelişmiş AI tasarımı ve geliştirmesi için bir dizi ortak güvenlik protokolü geliştirmek ve uygulamak için” kullanılacaktır.
Veri koruma ve insan hakları için bir tehdit olarak AI sistemleri
Bu, AB düzeyindeki siyasi karar vericilerin “AI Yasası” ile tam olarak başarmak istediği şeydir. 2021’de Avrupa Komisyonu, yapay zeka kullanan yazılım ürünleri için kapsamlı bir yasal çerçevenin ilk sürümünü yayınladı. Bu, henüz mevcut olmayan “süper zeki” AI sistemlerinin çok abartılı varoluşsal risklerini kontrol altına almak veya yasaklamakla ilgili değil. Bunun yerine, AB şu anda kullanılmakta olan veya toplumun olası tüm alanlarında yakında kullanılabilecek olan sistemlerin hayati tehlike arz etmeyen ancak önemsiz olmayan riskleriyle de ilgilenmek istemektedir.
2020’de bir mahkeme “akıllı” gözetim sistemini yasa dışı ilan etti.Görüntü muhafazası/imago
Hollanda’daki bir skandal sırasında, bir hükümet yapay zeka sistemi vatandaşlar hakkında istihdam, borç ve sosyal haklar ile eğitim ve barınma kayıtları gibi daha önce ayrı ayrı saklanan verileri özenle topladı ve ardından bunları otomatik olarak tanımlamak için gizli bir algoritma kullanarak analiz etti. fayda dolandırıcılığı yapma riski daha yüksek olan kişiler. 2020’de bir mahkeme, temel insan haklarını ihlal ettiği için “akıllı” gözetim sistemini yasa dışı ilan etti. AB Yapay Zeka Yasası, tam olarak bu tür şeffaf olmayan, otomatik karar verme sistemlerini yasaklayabilir veya en azından katı bir şekilde düzenleyebilir. Bu yılın bir noktasında, muhtemelen sonbaharda, AI Yasası metni üzerinde anlaşmaya varmak için AB Komisyonu, AB Konseyi ve Avrupa Parlamentosu arasında sözde üçlemeler yapılacak.
“Makinelere değil, bunları gerçekleştiren insanlara odaklanmalıyız”
Berlin’deki Hertie Okulu’nda etik ve teknoloji profesörü olan Joanna Bryson, önerilen mevzuatın temel endişesini şöyle açıklıyor: “Asıl mesele, yazılımın sosyal hizmetlerde olduğu gibi potansiyel olarak hayati bir konu olup olmadığıdır. İnsanların AI kararlarının sonucunu doğrulaması için gereken tek şey yeterli bilgidir. AI Yasasının söylediği tek şey, daha fazla hesap verebilirlik istediğimizdir. Sorumlu tutabileceğimiz tek kişi insanlardır. Makinelere değil, bunları gerçekleştiren insanlara odaklanmalıyız. Avrupa’nın yaptığı da tam olarak bu. Avrupa bu alanda liderdir.”
Joanna Bryson, Hertie Okulu’nda Etik ve Teknoloji Profesörüdür.Bath Üniversitesi
AI Yasası, AI sistemlerini insanların sağlığını, güvenliğini veya temel haklarını nasıl etkileyebileceklerine göre “kabul edilemez”, “yüksek”, “sınırlı” ve “minimum” risk kategorilerine ayırır. “Kabul edilemez”, “bir kişinin davranışını psikolojik veya fiziksel zarar verebilecek şekilde manipüle etmek için bilinçaltı teknikleri” kullanan sistemler, örneğin kamusal alanlarda devlet “sosyal puanlama” veya gerçek zamanlı biyometrik tanımlama sistemleri gibi sistemlerdir.
Trafik ışığı koalisyonu için, AI tarafından biyometrik sonradan tanımlama artık sırayla
Ayrıntılar burada tartışılır. Nikolett Aszódi, “toplumla ilgili algoritmik karar verme süreçlerini ele almayı ve sınıflandırmayı” amaçlayan Berlin’deki bir STK olan AlgorithmWatch’ta politika uzmanı olarak çalışıyor. Röportajda Aszódi, trafik ışığı koalisyonunun koalisyon anlaşmasında kamusal alanda yüz tanıma ve biyometrik tanımlama gibi AI kontrollü süreçleri yasaklamak istediğini hatırlıyor. “Pozisyonunu değiştirdi: artık gerçek zamanlı uzaktan biyometrik tanımlama istemiyor, ancak biyometrik sonrası tanımlama iyi.”
“Bir kazada veya bir soygunda, kurbanı veya faili bulup bulamayacağımızı görmek için CCTV görüntülerini alabilir, yüz tanıma ve bir veri tabanı kullanabiliriz.” Bu, bazı politikacılara umut verici gelebilir. Ancak bu tür teknikler, “gerçek zamanlı yüz tanıma” yasaklanmış olsa bile, nihai olarak vatandaşların AI destekli kimlik tespiti, Stasi’nin yalnızca hayal edebileceği kapsamlı hükümet gözetimine kapı açabilir. Nikolett Aszódi, “Temel haklar açısından bakıldığında, bunun asla mümkün olmasını istemiyoruz” diyor.
Yapay zekanın öngörülemeyen ve zararlı bir şey yapması durumunda bir “kapatma anahtarının” mevcut olduğu söyleniyor.Görüntü muhafazası/imago
AI Yasası, ordu tarafından veya ulusal güvenlik adına kullanılan yazılımlar için istisnalar getiriyor – oldukça esnek bir terim. Aszódi, Macaristan’ın eleştirel gazetecileri ve sivil toplum aktivistlerini dinleyen Pegasus yazılımını kullandıktan sonra, “Macar veri koruma yetkilileri, her şeyin ulusal güvenlik çerçevesinde yapıldığı için herhangi bir yasayı veya temel hakları ihlal etmediklerini belirledi” diye açıklıyor.
“Güvenlik” istisnası, Avrupa’nın dış sınırlarında kullanılan yapay zeka teknolojilerini de içerebilir. Nikolett Aszódi: “Şu anda potansiyel göçmenleri, kaçak insanları izlemek için çok çeşitli teknolojiler kullanıyoruz. Dillerini, belki de lehçelerini kontrol etmek veya iddia ettikleri kişi olup olmadıklarını öğrenmek için insanların soylarına bakan sistemler de var.” AlgorithmWatch, bu tür yapay zeka uygulamalarının temel haklarımızla bağdaşmadığı için yasak olduğu görüşünde. AB’nin bu kadar kapsamlı bir yasağı yönetip yönetmeyeceği ve ne ölçüde yöneteceği belirsizliğini koruyor.
Bir AB yasasının maliyeti ne olacak?
Gerçek dünyadaki AI uygulamalarının sadece küçük bir kısmı yasaklanmış olabilecek “kabul edilemez” risk sınıfına giriyor. Diğerleri, örneğin tıp, ulaşım, eğitim, göç veya yargı gibi hassas alanlarda “yüksek riskli” olarak sınıflandırılır. Bu tür AI’ları kullanan şirketlerin bir dizi düzenlemeye uyması gerekir. Örneğin, risk yönetimi sistemlerini tanıtın ve güvenlik testleri gerçekleştirin. AI eğitim verilerinin hatasız ve önyargısız olmasını sağlamalıdırlar. Yazılım, örneğin algoritmanın yapısı aracılığıyla kapsamlı bir şekilde belgelenmelidir. Ve sürekli insan denetimi mümkün olmalıdır. AI’nın beklenmedik ve zararlı bir şey yapması durumunda her zaman bir “kapatma anahtarı” mevcut olmalıdır.
Bu tür koşullar bazı meslek kuruluşları tarafından şiddetle eleştirilir. Google ve Amazon gibi şirketler tarafından finanse edilen Amerikan lobi grubu “Center for Data Innovation”, önerilen düzenlemenin Avrupa’yı yapay zeka geliştirme yeri olarak etkileyeceğini ve “AB’deki şirketler ve tüketiciler için önemli maliyetler gerektireceğini” yazıyor. getirmek.”
Düşünce kuruluşu uyarıyor: “Yapay Zeka Yasası önümüzdeki beş yıl içinde Avrupa ekonomisine 31 milyar avroya mal olacak ve yapay zeka yatırımlarını neredeyse yüzde 20 azaltacak.”
Hertie Okulu’ndan Joanna Bryson, bu argümanı ikna edici bulmuyor. Veri İnovasyonu Merkezi, AB düzenleyici çerçevesine uymanın maliyeti hakkında yanlış iddialarda bulunuyor, diyor. Yönetmeliğin gerektirdiği önlemlerin maliyetlerinin çoğu, sektörlerinde en iyi uygulamaları takip eden şirketlerin bütçelerine zaten dahil edilmelidir. Kısacası, onların görüşüne göre, AB yasasının maliyeti, Avrupa’da yapay zekanın gelişmesine engel olmamalıdır.
Uzmanlar uyarıyor: AB sektörü çok hızlı ve kapsamlı bir şekilde düzenlememeli
Ines Montani, yaklaşık 30 kişiyi istihdam eden bir Berlin şirketi olan ExplosionAI’nin kurucu ortağı ve genel müdürüdür. ExplosionAI, doğal dil işleme alanında yapay zeka programları oluşturan geliştiriciler tarafından kullanılan yazılım araçları sağlar. Uygulamalar, herhangi bir sektörde büyük miktarda metni daha iyi organize etmek ve analiz etmek için kullanılır.
Temel olarak, Ines Montani AI Yasasını memnuniyetle karşılıyor. İnsanlara zarar veren “sihirli bir yapay zekaya” değil, gerçek dünyadaki uygulamalara odaklandığından memnun: “Bu, insanların gerçekte ne yaptığı, bunun gerçek insanları nasıl etkilediği, hangi ürünlerin olduğu, hangi endüstrilerin var olduğu ile ilgili. soru: AI – kötü ya da değil.”
Yapay zekanın nasıl kullanılacağı ve sonuçlarının ne olacağı öncelikle siyasi bir sorudur.Görüntü muhafazası/imago
Ancak bunlar gelişmekte olan teknolojiler olduğu için Montani, AB’nin endüstrilerini çok hızlı ve kapsamlı bir şekilde düzenlemek isteyeceğinden korkuyor. Sonunda, amacınıza hizmet etmeyen ve daha sonra değiştirilmesi zor bir yasayla karşılaşabileceğinizi söylüyor. Ayrıca, yanlış bir şey yapan ve insanları düzenlemenin yanlış nedenlerle kötü olduğuna inandıran bir şeyle karşılaşırsak, AB’nin güvenilirliği sorgulanabilir. “Bu çok zarar verici olabilir çünkü genel olarak burada çok fazla pozitif potansiyel var ve bunun boşa gittiğini görmekten nefret ederim.”
Aslında yapay zekanın hayatımızı, ekonomimizi ve toplumumuzu zenginleştirme potansiyeline sahip olduğu konusunda neredeyse herkes hemfikir. AI araştırmacılarından gelen açık uyarı mektubunda “AI ile insanlık müreffeh bir gelecek yaşayabilir” diyor. Joanna Bryson, yapay zekanın nasıl kullanılacağının ve sonuçlarının ne olacağının öncelikle siyasi bir mesele olduğunu söylüyor.
Bu, açık kaynak girişimimizin bir parçası olarak gönderilen bir giriştir. İle açık kaynak Berliner Verlag, serbest yazarlara ve ilgilenen herkese ilgili içeriğe ve profesyonel kalite standartlarına sahip metinler sunma fırsatı verir. Seçilen katkılar yayınlanacak ve onurlandırılacaktır.
Bu gönderi, Creative Commons Lisansı (CC BY-NC-ND 4.0) altında lisanslanmıştır. Yazarın ve Berliner Zeitung’un adının belirtilmesi ve herhangi bir işlemenin hariç tutulması koşuluyla, genel halk tarafından ticari olmayan amaçlarla serbestçe kullanılabilir.
Geri bildiriminiz var mı? Bize yazın! briefe@Haberler