This is a Demo Server. Data inside this system is only for test purpose.
 

A language modeling approach to detect bias

dc.contributor.advisor Tekir, Selma
dc.contributor.author Atik, Ceren
dc.date.accessioned 2023-11-13T09:55:20Z
dc.date.available 2023-11-13T09:55:20Z
dc.date.issued 2020-07 en_US
dc.department Computer Engineering en_US
dc.description Thesis (Master)--Izmir Institute of Technology, Computer Engineering, Izmir, 2020 en_US
dc.description Includes bibliographical references (leaves: 39-41) en_US
dc.description Text in English; Abstract: Turkish and English en_US
dc.description.abstract Technology is developing day by day and is involved in every area of our lives. Technological innovations such as artificial intelligence can strengthen social biases that already exist in society, regardless of the developers' intentions. Therefore, researchers should be aware of this ethical issue. In this thesis, the effect of gender bias, which is one of the social biases, on occupation classification is investigated. For this, a new dataset was created by collecting obituaries from the New York Times website and they were handled in two different versions, with and without gender indicators. Since occupation and gender are independent variables, gender indicators should not have an impact on the occupation prediction of models. In this context, in order to investigate gender bias on occupation estimation, a model in which occupation and gender are learned together is evaluated as well as models that make only occupation classification are evaluated. The results obtained from models state that gender bias has a role in classification occupation. en_US
dc.description.abstract Teknoloji günden güne gelişerek hayatımızın her alanına dahil olmaktadır. Yapay zekâ gibi teknolojik yenilikler, geliştiricilerin niyetlerinden bağımsız olarak toplumda zaten var olan sosyal önyargıları güçlendirebilir. Bu nedenle, araştırmacılar bu etik sorunun farkında olmalıdır. Bu tez çalışmasında, sosyal önyargılardan biri olan cinsiyet yanlılığının meslek sınıflandırması üzerindeki etkisi araştırılmaktadır. Bunun için New York Times web sitesinden anma yazıları toplanarak yeni bir veri kümesi oluşturulmuş ve bu anma yazıları cinsiyet göstergeleri dahil ve hariç olmak üzere iki farklı versiyonuyla ele alınmıştır. Meslek ve cinsiyet birbirinden bağımsız değişkenler olduğu için cinsiyet göstergelerinin modellerin meslek tahmini üzerinde bir etkisi olmadığı varsayılmaktadır. Bu bağlamda, meslek tahmini üzerinde cinsiyet yanlılığını araştırmak için sadece meslek sınıflandırması yapan modellerin yanında meslek ve cinsiyetin aynı anda öğrenildiği bir model de değerlendirilmiştir. Deneysel sonuçlar meslek tahmininde cinsiyet yanlılığının etkili olduğunu ortaya koymaktadır en_US
dc.format.extent x, 44 leaves en_US
dc.identifier.citationreference Atik, C. (2020). A language modeling approach to detect bias. Unpublished master's thesis, İzmir Institute of Technology, İzmir, Turkey en_US
dc.identifier.uri http://standard-demo.gcris.com/handle/123456789/5665
dc.language.iso en en_US
dc.oaire.dateofacceptance 2020-07-01
dc.oaire.downloads 29
dc.oaire.impulse 0
dc.oaire.influence 2.9837197E-9
dc.oaire.influence_alt 0
dc.oaire.is_green true
dc.oaire.isindiamondjournal false
dc.oaire.popularity 2.3516435E-9
dc.oaire.popularity_alt 0.0
dc.oaire.publiclyfunded false
dc.oaire.views 91
dc.publisher Izmir Institute of Technology en_US
dc.relation.publicationcategory Tez en_US
dc.rights info:eu-repo/semantics/openAccess en_US
dc.subject Neural networks en_US
dc.subject Artificial intelligence en_US
dc.subject Social biases en_US
dc.subject Gender bias en_US
dc.title A language modeling approach to detect bias en_US
dc.title.alternative Taraflılığın tespiti için bir dil modeli yaklaşımı en_US
dc.type Master Thesis en_US
dspace.entity.type Publication

Files

Collections