Please use this identifier to cite or link to this item: http://hdl.handle.net/11452/3611
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorYeşilçimen, Halil-
dc.contributor.authorYenikaya, Gökhan-
dc.date.accessioned2019-12-19T07:15:53Z-
dc.date.available2019-12-19T07:15:53Z-
dc.date.issued2006-12-26-
dc.identifier.citationYenikaya, G. (2006). Sürücü davranışlarının modellenmesine bilişsel mimari yaklaşımı. Yayınlanmamış doktora tezi. Uludağ Üniversitesi Fen Bilimleri Enstitüsü.tr_TR
dc.identifier.urihttp://hdl.handle.net/11452/3611-
dc.description.abstractGeçen yüzyılın sonlarına dogru ulasım teknolojilerindeki hızlı gelismeler, can veya mal kaybına yol açan trafik kazaları ve zaman kaybına yol açan trafik sıkısıklıkları seklinde sorunları da beraberinde getirmistir. statistiksel olarak bakıldıgı zaman bu sorunların büyük oranda insan kaynaklı hatalardan ortaya çıktıgı görülmektedir. nsandan kaynaklı sorunların çözümünde, otomobil kullanma esnasında sürücünün üzerinden yükü alacak sürücü yardımcı sistemlerinin olusturulması fikri arastırmacılar tarafından büyük ilgi görmüs ve bu konuda yogun çalısmalar gerçeklestirilmistir. Sürücü yardımcı sistemlerinin olusturulmasında en önemli asama, sürücü davranısının modellenmesi asamasıdır. Bilissel mimari insan davranısının modellenmesi için gelecek vaat eden en önemli seçeneklerden biri durumundadır, fakat araç sürme problemine uygulanmasıyla ilgili literatür oldukça kısıtlıdır. Bu tez çalısmasının bir katkısı, araç sürme davranısının modellenmesinde, bilissel mimariyi temel alan bir yöntemin önerilmesidir. Önerilen mimarinin çekirdeginde, deneyimler yoluyla sürücü davranıslarını ögrenmeye imkan saglayan pekistirmeli ögrenme yöntemi, pekistirmeli ögrenme yöntemi olarak da Q-Ögrenme yöntemi kullanılmıstır. Literatür taramasında standart Q-Ögrenme tekniklerinin insan davranıslarının modellenmesinde kullanılmasının, insan davranıslarının sürekli olmasıyla durum uzayının büyüdügü, içinde bulundugu durumun dinamik oldugu ve insan davranısları için bir pekistirme fonksiyonu olusturmanın oldukça zor oldugu durumlarda problemlere sahip oldugu görülmüstür. Bu tez çalısmasının bir diger katkısı, süreklilik ve büyük durum uzayı probleminin çözümü için alt görevlerin otomatik olarak belirlenmesi tekniginin gelistirilmesi, dinamik ortamlarda çalısabilmenin saglanması için bir hafıza yapısı eklenmesi ve pekistirme fonksiyonunun gözlenen sürücüden otomatik olarak çıkarılmasının saglanması, ve bu yöntemleri içeren gelistirilmis Q-Ögrenme yöntemini kullanan bilissel mimari temelli bir modelin olusturulmasıdır.tr_TR
dc.description.abstractNear the end of the last century, the rapid developments in transportation technologies lead the traffic accidents which cause the loss of human or assets and increase the traffic congestions which cause the loss of time. Statistically, it is obvious that the most important source of these problems are human-centered. To solve these problems, researchers have focused on driver assistance systems which support human while driving and increasingly vigorous efforts have been put in this area. The most important stage in developing driver assistance systems is modelling the drivers behaviour. Cognitive architecture is a very promising appproach in modelling human behavior. But for modelling drivers behavior based cognitive architecture, there exists very limited literature. In this thesis, for modelling drivers behavior, a method based on cognitive architecture is proposed. In the core of the proposed method, reinforcement learning which allows learning with experience, is used. Q-Learning method as the reinforcement learning method is implemented in the architecture. Standard QLearning methods suffer from large state sets rising from continual operation, from the dynamic operating environment, and from providing a reinforcement function which seems as a hard process for human behavior. In this thesis, for solving the continual operation problem a novel sub-goal discovery algorithm is introduced, for tackling dynamic environments usage of history memory is implemented and a method for automatically extracting the reinforcement function is inserted. Using the modified Q-Learning structure, a model based on cognitive architecture is developed. The proposed method is tested experimentally and good results have been obtained.en_US
dc.format.extentXII, 148 sayfatr_TR
dc.language.isotrtr_TR
dc.publisherUludağ Üniversitesitr_TR
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.rightsAtıf 4.0 Uluslararasıtr_TR
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.subjectAraç sürücü modellemetr_TR
dc.subjectModellemetr_TR
dc.subjectBilişsel mimaritr_TR
dc.subjectPekiştirmeli öğrenmetr_TR
dc.subjectQ-öğrenmetr_TR
dc.subjectSeçeneklertr_TR
dc.subjectOtomatik alt görev belirlemetr_TR
dc.subjectDrivers’ behavior modellingen_US
dc.subjectCognitive architectureen_US
dc.subjectReinforcement learningen_US
dc.subjectQ-learningen_US
dc.subjectOptionsen_US
dc.subjectAutomatically subgoal discoveryen_US
dc.subjectReverse reinforcement learningen_US
dc.titleSürücü davranışlarının modellenmesine bilişsel mimari yaklaşımıtr_TR
dc.title.alternativeA cognitive architecture approach for modelling drivers' behavioren_US
dc.typedoctoralThesisen_US
dc.relation.publicationcategoryTeztr_TR
dc.contributor.departmentUludağ Üniversitesi/Fen Bilimleri Enstitüsü/Elektronik Mühendisliği Anabilim Dalı.tr_TR
Appears in Collections:Fen Bilimleri Doktora Tezleri / PhD Dissertations

Files in This Item:
File Description SizeFormat 
202318.pdf1.23 MBAdobe PDFThumbnail
View/Open


This item is licensed under a Creative Commons License Creative Commons