Microsoft, yapay zeka aracı Copilot’a yapılan taleplerle ilgili endişelerin artması üzerine değişiklikler yapmaya başladı. Özellikle “seçim yanlısı” ve “önlü seçim” gibi istemlerin engellenmesi sağlanmıştır. Copilot, artık işbirliği yapmayacağı talepleri reddederek politika ihlallerini önlemeye odaklanmıştır. Ayrıca, saldırı tüfeği taşıyan gençlerin resimlerini oluşturma istekleri gibi etik olmayan içerikler de engellenmektedir.
Microsoft, yapay zeka aracının daha güvenli hale getirilmesi ve kötüye kullanımının azaltılması için sürekli olarak filtreler ve kontroller eklemektedir. Şirketin yapay zeka mühendisliği lideri Shane Jones, Copilot’un sorumlu yapay zeka ilkelerine ters düşen görüntüler üretmesi üzerine endişelerini dile getirmiştir. Özellikle kürtaj haklarıyla ilgili, şiddet içeren ve telif hakkı ihlali yapan içeriklerin engellenmesi üzerinde yoğunlaşılmıştır.
Jones, yaşadığı deneyimlere dayanarak Microsoft’a endişelerini iletmeye başlamış ve şirketin önlem almasını talep etmiştir. Ancak şirket, ürünü piyasadan çekmek yerine değişiklikler yapmayı tercih etmiştir. Jones’un girişimleri sonucunda yapılan iyileştirmelerle Copilot’un daha güvenli bir şekilde kullanılması hedeflenmektedir.
Öte yandan, Copilot kullanılarak oluşturulan bazı içerikler hala sorun oluşturmakta ve telif hakları ihlallerine sebep olabilmektedir. Özellikle Disney karakterlerinin resimleri veya askeri üniforma giyen kişilerin oluşturulmasında telif hakları sorunları devam etmektedir. Jones, yaşadığı deneyimler üzerine ABD senatörlerine mektup yazmış ve sorunun çözümü için adımlar atılmıştır. Microsoft’un yapay zeka modellerinin güvenliği konusunda sürekli olarak çalışmalar yürüttüğü belirtilmektedir.
Sonuç olarak, Microsoft’un yapay zeka aracı Copilot’un içerik politikaları ve güvenlik standartlarına uygun hale getirilmesi için başlatılan çalışmalar devam etmektedir. Şirket, kullanıcıların güvenliğini ve etik standartlara uygunluğunu ön planda tutarak yapay zeka teknolojisini daha sorumlu bir şekilde kullanmayı hedeflemektedir.