Geçtiğimiz yıl elde ettiği popülerliğin bir tezahürü olarak Collins sözlüğü tarafından yılın kelimesi olarak seçilen Yapay Zekâ (Artificial Intelligence-AI), 2024’te de popülerliğinden bir şey kaybetmişe benzemiyor. Dünya genelinde yapay zekânın giderek artan bir ilgi görmesinin temelinde iş süreçlerini hızlandırması ve geniş veri setlerini işleme konusundaki yetenekleri olduğunu söylemek yanlış olmayacaktır. Öyle ki, yapay zekâ sayesinde normal şartlarda geniş veri setleri içerisinde insan algısından kaçabilecek desenler ve içgörüler ortaya çıkartılarak karmaşık bilgilerin işlenmesinde verimlilik ve etkinlik büyük ölçüde artırılmaktadır. Çok yönlü bir teknoloji olarak yapay zekânın faydaları birçok alanda olduğu gibi akademik yazımda da kendini göstermektedir. Bu bağlamda yapay zekâya dair akla gelen ilk teknoloji, şüphesiz Büyük Dil Modelleridir.
Yapay Zekâ Modellerinde Temel Prensipler
Büyük Dil Modelleri’nin (Large Language Models-LLMs) giderek günlük hayatın bir parçası haline gelmesi şüphesiz ChatGPT ile ünlenen, daha doğrusu dünyanın büyük çoğunluğu için “keşfedilen” yapay zekâ modelleri üzerinden olmuştur. Teknoloji okur yazarı olmayan gündelik konuşmalarda “yapay zekâ” olarak da ifade edilen bu modeller aslında “Doğal Dil İşleme” teknolojilerinde elde edilen gelişmelerin bir sonucu olarak tezahür etmiş ve dünyada birçok farklı firma tarafından geliştirilerek son kullanıcıya sunulmuştur. Haziran 2024 penceresinden bakıldığında bazı Büyük Dil Modellerinin uluslararası alanda ün kazandığı görülmektedir. Nitekim Anthropic tarafından geliştirilen Claude 3, the Technology Innovation Institute tarafından geliştirilen Falcon 180B, Hugging Face tarafından geliştirilen BLOOM, Meta’nın LLAMA3’ü, Google’ın Gemini’ı ve OpenAI’ın ChatGPT-4o’su bu sektörün önde gelen oyuncuları olarak karşımıza çıkmaktadır. Anlaşılacağı üzere Büyük Dil Modelleri, dünya genelinde giderek artan şekilde ilgi görmekte ve buna bağlı olarak yaygınlaşmaktadır. Türkiye’deki gelişmelere bakıldığında ise Aselsan tarafından geliştirilen AselGPT, Havelsan tarafından geliştirilen MainGPT, T3 Vakfı tarafından geliştirilen T3 AI’LE ve TUBİTAK Bilgem tarafından geliştirilen Türkçe Büyük Dil Modeli’nin öne çıktığı görülmektedir.
Anlaşılacağı üzere Büyük Dil Modellerine olan iltifat “yapay zekâ”ya olan “kuşkunun” çok ötesine geçmiş durumdadır. Durum her ne olursa olsun, şu temel kuralı en başta dile getirmekte fayda var: Yapay zekâ sunulan/işlenen veri kapasitesinde/kalitesinde sonuçlar verebilir. Yani bu bağlamda yapay zekâ sistemlerinin/modellerinin veriye olan bağımlılığı gözden kaçmamalıdır. Bir başka deyişle sunulacak veri ne kadar kaliteli ise alınacak ürün de eş değer yapıda olacaktır. Elbette bu ön kabul, yapay zekânın çalışma mimarisi üzerinedir ancak akıldan çıkartılmaması gereken husus diğer yapay zekâ teknolojilerinin de bu temel ilkeden azade bir yapıda olmadığıdır.
Büyük Dil Modelleri ile birlikte bir diğer önemli husus ise üretken yapay zekâ yani generative artificial intelligence’ın da artık son kullanıcıya ulaşan bir hizmet olarak günümüzde yaygınlaşmasıdır. Üretken Yapay Zekâ, belirli bir girdiye dayalı olarak yeni ve özgün içerik oluşturabilen yapay zekâ sistemlerini ifade eder. Bu içerik; metin, görüntü, ses ve video gibi çeşitli biçimlerde olabilir. Büyük Dil Modelleri ise özellikle dilin anlaşılması ve üretilmesi konusunda önceden eğitim almış büyük ölçekli yapay zekâ modelleridir. Bu modeller, genellikle devasa veri kümeleri üzerinde eğitilerek dilin karmaşıklıklarını ve ince ayrıntılarını öğrenirler. Üretken yapay zekâ ve büyük dil modelleri arasında yakın bir ilişki bulunmaktadır. Büyük dil modelleri, üretken yapay zekânın metin tabanlı içerik oluşturma kapasitesinin temelini oluşturur. Her iki teknoloji de derin öğrenme ve büyük veri kümeleri üzerinde eğitim alarak, çeşitli dil ve içerik üretme görevlerinde önemli ilerlemeler kaydetmiştir. Bu modeller, dilin karmaşıklıklarını anlayarak ve yeni, özgün içerikler üreterek, yapay zekânın dil işleme ve üretme yeteneklerini daha ileriye taşımaktadır.
Akademik Yazımdaki Potansiyeli
Yazının başında da değinildiği üzere yapay zekâ yöntemlerinin alametifarikası; büyük veri setlerini başarılı şekilde işleyebilmesi, analiz edebilmesidir. Bu bağlamda yapay zekâ; veri analizi, literatür taraması ve içerik oluşturma için yenilikçi araçlar ve yöntemler sunarak akademik yazıma önemli bir potansiyel getirmektedir. Ancak bununla birlikte birtakım riskleri de bünyesinde barındırmaktadır.
Yukarıdaki satırlarda da vurgulandığı üzere yapay zekânın veri analiz yetenekleri sayesinde akademik yazımda önemli kolaylıklar/imkanlar sağlaması potansiyel dahilindedir. Nitekim makine öğrenmesi algoritmaları, büyük veri setlerini hızlı ve doğru bir şekilde işleyerek, araştırmacıların gözden kaçırabileceği desenleri ve içgörüleri ortaya çıkarabilir. Örneğin, biyoinformatikte, yapay zekâ modelleri genetik verileri analiz ederek hastalık belirtilerini tanımlarken, ekonomi alanında yapay zekâ, büyük finansal verilerden piyasa trendlerini tahmin edebilir.
Yapay zekânın akademik yazıma sunduğu diğer bir katkı alanı ise şüphesiz literatür taraması noktasındadır. Yapay zekâ destekli literatür tarama araçları (örneğin: Scite tarafından özelleştirilmiş bir “Büyük Dil Modeli” olarak geliştirilen Assistant), araştırma sürecinin verimliliğini ve kapsamını artırabilir. Bu araçlar, binlerce akademik makaleyi tarayarak ilgili bilgileri çıkarır ve ana bulguları özetler. Bu yetenek, araştırmacıların alanlarındaki en son gelişmeleri zaman alıcı manuel süreç olmadan takip etmelerine olanak tanımaktadır. Bir diğer husus ise yazım yardımıdır.
Yapay zekâ teknolojileri, akademik yazımda dilbilgisi kontrolü, atıf yönetimi ve hatta içerik oluşturma konularında önemli destekler sunabilmektedir. Yukarıdaki satırlarda detaylıca değinilen Büyük Dil Modelleri akademik metinlerin netliğini ve tutarlılığını artırırken, atıf araçları doğru referans vermeyi ve akademik standartlara uygunluğu sağlamaktadır.
Akademik yayıncılık açısından yapay zekâ modellerinin faydalarına bakıldığında hakem değerlendirme süreçlerinin hızlanmasına katkı sağlayabilmektedir.
Süreçteki Riskler
Dikkat edilmesi gereken ilk risk şüphesiz kalite ve güvenirlik sorunları, yani yapay zekânın meşhur “halüsinasyon” meselesidir. Yapay zekâ çıktılarındaki hatalar, yanlış bulgulara ve yanıltıcı sonuçlara yol açabilir. Yapay zekâ ile desteklenen akademik çalışmaların bütünlüğünü korumak için sürekli denetim ve doğrulama gereklidir.
Bir diğer risk hususu ise yapay zekâ modellerine bağımlılık ve beceri kaybı meselesidir. Yapay zekâ araçlarına artan bağımlılık, temel araştırma becerilerinin kaybı konusunda endişeler oluşturmaktadır. Bilhassa saniyeler içerisinde bilgilerin metin olarak oluşmasının getirdiği kolaylık, yapay zekâya karşı bir bağımlılık doğurabilir. Diğer taraftan bu konformist durum araştırmacıların eleştirel düşünme ve analitik yeteneklerini azaltabilir, çünkü otomatik süreçlere fazla güvenmek, materyal üzerinde derinlemesine düşünmeyi nihai olarak engelleyebilir.
Yapay zekâ yöntemlerine dair bir başka risk alanı ise aslında yapay zekânın doğasıyla ilgili kronik bir mesele olan önyargı meselesidir. Yapay zekâ sistemleri, eğitim verilerinde bulunan ön yargıları miras alabilir, bu da araştırma sonuçlarını çarpıtabilir. Yukarıdaki satırlarda vurgulandığı üzere yapay zekâ sistemleri eğitildikleri, onlara sunulan veriler temelinde işlem yapabilmektedirler. Bu bağlamda yapay zekâ algoritmalarında adaletin sağlanması, mevcut ön yargıların devam ettirilmemesi ve akademik araştırmanın nesnelliğinin korunması için kritiktir. Sonuç olarak yapay zekâ yöntemlerini kullanan araştırmacılar, yapay zekâ eğitiminde ön yargısız veri setlerini seçmek ve hazırlamak konusunda dikkatli olmalıdırlar.
Etik Hususların Dikkate Alınması
Şüphesiz en önemli etik unsur olarak karşımıza fikri mülkiyet ihlali tehlikesi taşımaktadır. Nihayetinde yapay zekâ modelleri önceden sunulan verilerle eğitilmektedirler. Geçtiğimiz aylarda ABD’de bazı gazeteler içeriklerinin kendilerinden yasal izin alınmadan bir firma tarafından Büyük Dil Modelinin eğitiminde kullanıldığı için yasal haklarını kullanacaklarını deklare etmişlerdi. Diğer taraftan yazar olarak kullanıldığı durumlarda yapay zekânın akademik metne olan katkısının boyutunun belirlenmesi ve uygun şekilde belirtilmesi de önem arz etmektedir.
Etik hususlar bağlamında bir başka dikkat edilmesi gereken mesele de şeffaflık ve hesap verebilirliktir. Zira yapay zekâ algoritmalarının ve veri kaynaklarının şeffaflığı, akademik araştırmalarda hesap verebilirlik için hayati öneme sahiptir. Akademik çalışma yapan kişiler çalışmalarında kullanılan yapay zekâ araçlarını ve ilgili veri setlerini açıklamalı, sonuçların yeniden üretilebilirliğini ve incelenebilirliğini/doğrulanabilirliğini sağlamalıdır.
Verilerin gizliliği ve veri güvenliği meseleleri ise yapay zekânın bir diğer kronik problemlerinden biri olarak karşımıza çıkmaktadır. Çalışmada sürekli olarak vurgulandığı üzere yapay zekânın yakıtı veridir ve yapay zekâ ne kadar geniş, kaliteli veri setleriyle eğitilirse o derece başarılı sonuçlar sunabilmektedir. Ancak yapay zekânın kullanıldığı bilimsel çalışmalarda, hassas verilerin işlenmesini içerdiğinde, gizlilik ve veri güvenliği konusunda ciddi soru işaretleri oluşmaktadır. Verilerin toplanması, saklanması ve analiz edilmesinde etik hususlar, bireylerin mahremiyetini korumak ve veri koruma düzenlemelerine uyulması açısından büyük önem arz etmektedir.
Türkiye’deki durum açısından geçtiğimiz haftalarda Yükseköğretim Kurulu Başkanlığı (YÖK) tarafından yayınlanan “Yükseköğretim Kurumları Bilimsel Araştırma ve Yayın Faaliyetlerinde Üretken Yapay Zekâ Kullanımına Dair Etik Rehber” dikkat çekmektedir. YÖK tarafından yayınlanan rehberin, üretken yapay zekânın yükseköğretim süreçlerine entegrasyonunda etik değerlerin belirlenmesi ve etik kuralların oluşturulması ile bilimsel dürüstlüğün korunması için bir temel oluşturması açısından büyük önem arz etmektedir. Zira yazının genelinde vurgulandığı üzere etik, bilim ve teknoloji dengesinin korunması yapay zekânın akademik yazımda ideal şekilde kullanımı için elzemdir.
YÖK’ün yayınladığı rehberde üretken yapay zekânın kullanımında şeffaflık, dürüstlük, özen, adalet ve saygının temel olması gerektiği, yanlış veya taraflı veri üretim riskini en aza indirmek ve bilimsel geçerlilik ile doğruluk açısından sürekli insan denetiminin tesis edilmesinin elzem olduğu vurgulanmaktadır. Ayrıca rehberde akademik çalışmalarda kullanılacak üretken yapay zekânın hangi aşamalarda kullanıldığının açıkça belirtilmesi gerektiği, veri gizliliğinin ve mahremiyetinin korunmasının altının çizildiği görülmektedir. Zira anonim olmayan kişisel verilerin kullanılmaması, akademik çalışmalarda üretken yapay zekâ kullanımı konusunda etik kurul başvurularında da bilgi verilmesi gerekliliği ifade edilmektedir. Ayrıca rehberde üretken yapay zekâ sistemlerinin nasıl çalıştığı ve potansiyel riskleri hakkında bilgi edinilmesi gerekliliği de vurgulanmaktadır. Bu bağlamda sistemlerin sağlıklı işleyebilmesi ve başarılı sonuçlar sunabilmesi için kullanılan verilerin yüksek kaliteli olması gerektiği ifade edilmektedir. Yazının başında da ifade edildiği üzere yapay zekâ sistemleri ile veri arasında önemli bir bağ bulunmaktadır.
Potansiyelin Doğru Kullanımı
Sonuç olarak, yapay zekâ ve özellikle Büyük Dil Modelleri, 2024’te de akademik yazımda önemli bir potansiyel taşımaktadır. Bu modeller, veri analizi, literatür taraması, yazım yardımı ve akademik yayıncılık gibi alanlarda sağladıkları yenilikçi çözümlerle araştırmacıların işini kolaylaştırmaktadır. Ancak, yapay zekânın sağladığı bu fırsatlar yanında, kalite ve güvenilirlik sorunları, bağımlılık ve beceri kaybı ile önyargı gibi riskler de göz önünde bulundurulmalıdır. YÖK’ün yayınladığı “Yükseköğretim Kurumları Bilimsel Araştırma ve Yayın Faaliyetlerinde Üretken Yapay Zekâ Kullanımına Dair Etik Rehber”, bu teknolojilerin etik kullanımına yönelik önemli yönergeler sunarak, bilimsel dürüstlük ve güvenilirliği koruma amacı taşımaktadır. Bu rehberde, şeffaflık, dürüstlük, özen, adalet ve saygı gibi temel etik ilkelerin vurgulanması, yapay zekânın akademik yazımda sorumlu bir şekilde kullanılmasını teşvik etmektedir. Sonuç olarak etik, bilim ve teknoloji dengesinin korunması, yapay zekânın akademik yazımda ideal şekilde kullanımı için elzemdir.