31 research outputs found

    校園動態:孟堯網際網路中心

    No full text

    一個改良式無線感測網路的節能分群階層架構

    No full text
    隨著感測網路使用率的提高,研究如何建置一個高品質、高生命週期的感測網路環境,已成為十分重要的課題。目前對於提升感測網路生命週期的研究,主要著重在耗電量的節省,而電量的使用與感測節點的資料傳輸量、資料傳輸頻率、以及傳輸距離等因素相關。因此,有些研究提出資料傳輸路由協定(routing protocol),在感測節點與基地台之間,選出一些閘道節點(gateway nodes)。利用閘道節點縮短感測節點傳送資料的距離,節省其他感測節點的電量,同時可對資料作預先處理,降低傳輸資料量,增加資料傳輸速度,讓基地台能更即時地處理資料,並延長感測網路的生命週期。所以,適當數量且位置恰當的閘道節點設計是一個重要的研究議題。本計劃之目的在於利用最佳化演算法建構一個三層式的感測網路架構,解決下列三大問題:(1) Clustering and Optimal Cluster-head Selection Problem, (2) OptimalSuper-cluster-head Configuration Problem, (3) Re-Clustering and Re-ConfigurationProblem。亦即,我們將採用一個節能分群的階層架構,尋找出每個階層的閘道節點的最佳數目與位置,以及能夠因應感測節點動態變化的特性,而重新尋找最佳的閘道節點數目與位置,讓感測網路在真實運作時能夠延長生命週期,並擁有最佳品質。本計劃所提出之三層式的感測網路架構及演算法,也將利用模擬軟體NS2 或SENSE測試,評估並比較其他演算法之效

    以有效分群方法進行高頻項目集探勘

    No full text
    Mining frequent itemsets is a key problem in many important mining applications, such asthe discovery of association rules, sequential patterns, and the network intrusion analysis.However, the task of discovering frequent itemsets in a large database is quite challenging.Traditional algorithms solve this problem by using a bottom-up breadth-first approach; theyuse a candidate generation method such that the frequent itemsets at a level can be used toconstruct candidate patterns at the next level. Nevertheless, it has the drawback of scanningthe database multiple times for verifying candidate itemsets. If there are lots of candidateitemsets, the cost of scanning the database may become very expensive. Thus, the goal of ourresearch is to develop a more effective algorithm for mining frequent itemsets.In this research project, we propose a new algorithm that will divide database items intoclusters and discover the frequent itemsets in each cluster by using the support-propagationmethod. Compared to the traditional algorithms, examining database items in a top-downmanner is the unique feature of the support-propagation method. As a result, it scans thedatabase only once. However, it may generate too many itemsets while decomposing thetransactions from the database. Therefore, we propose a clustering technique to improve thespace problem in the support-propagation method. Furthermore, we will design a simulationplatform to compare our top-down approach against the traditional bottom-up algorithms.尋找高頻項目集在許多重要的資料探勘應用中扮演了極為關鍵的角色,例如關聯式規則探勘、循序序列探勘、網路入侵行為分析探勘等,然而如何有效地找出資料庫中所有高頻項目集卻是一個極富挑戰性的問題。傳統的研究利用由下而上、廣先搜尋的方式來解決此問題,即不斷地產生候選項目集方式,每一回合中的高頻項目集均被利用來成為下一回合的候選項目集。然而當資料庫存在候選項目集個數過多時,利用此種方式有可能造成探勘效率不彰。因此,如何發展出一種更有效率的高頻項目集探勘方式即為本計畫的研究目的。本計畫主要採用分群的方法,並在每一個分群中以支持度傳遞方式找到所有高頻項目集。不同於傳統演算法,支持度傳遞方式的特點為掃描資料庫一次即可以由上而下的方式去找到所有的高頻項目集,然而它卻有產生過多項目集的問題,因此本計畫提出利用分群方法來改善支持度傳遞方式的空間問題。除此之外,為了驗証本研究計畫的探勘效能,我們也將設計一實驗平台,針對本研究計畫及傳統的探勘演算法進行實驗數據分析,並歸納出由上而下及由下而上兩種探勘方式的特點及其適用性以提供更多學者來進行後續研究

    An Efficient Collaborative Filtering Technique for Personal Ontology Model in Library Recommender System

    No full text
    The research on recommender systems has drawn a lot of public attentions since the announcement of Netflix competition with the prize of 1 million US dollars in October 2006. The essential problem underlying the Netflix competition is the efficiency and accuracy problem of a recommender system with the magnitude of Netflix, which is a movie rental company having 480,189 customers and 17,770 movies.In 2006, we proposed a novel model called Personal Ontology Model for library recommender system. This model was implemented in the Library of National Chung Hsing University for recommending Chinese collections in 2007. We then upgraded the system, called PORE (Personal Ontology Recommender), by adding collaborative filtering techniques and including English collections recommendation.Although the PORE system is in operation, it still suffers from efficiency problem. The motivation of this research proposal is not only to design a more accurate and effective recommendation system for libraries, but also to eliminate many of the weaknesses found in the existing recommender systems. In the proposed approach, we will define a similarity function for personal ontology model based on the edit distance of trees and propose a new scheme for efficiently computing the similarities among library patrons.推薦系統的研究,近年來受到高度的重視。一個準確的推薦系統,能夠提高購物網站的營業額或者提升圖書館資訊服務的品質。推薦系統的作法,可以分為以內容為基礎(content-based),及以合作式過濾為基礎(collaborative filtering) 的推薦。以合作式過濾為基礎的系統,必須能夠快速的尋找到擁有類似喜好的使用者。當系統找出相似的使用者,便可以依照使用者的行為紀錄(購買紀錄或是借閱紀錄),找出這個族群喜好的物品,進而推薦該族群使用者尚未購買或借閱的物品。而將使用者的喜好特徵,依照領域知識,組織成一個有系統的結構,我們稱之為個人本體論。使用個人本體論來表達個人喜好,可以同時表達喜好的領域分類及喜好間的語意意涵,因此較諸傳統使用關鍵字的方式要來得有效。但是,在比較個人本體論的相似性時,必須做結構相似度的比對,其速度卻遠較傳統的關鍵字比對的來得慢。因此如何改善個人本體論相似度計算的速度,是一個非常重要的議題。本研究計劃的目標,首先將設計一個適用於圖書館本體論的相似度演算法。此外,我們將著重在如何提升個人本體論相似度計算的速度。我們將分成兩個情境來探討提升計算速度的方法。第一:當系統可以接受概略解(Approximate Solution)時。第二:當系統要求精確解(Exact Solution)時。對這兩個情況可用的技巧,本研究團隊目前已討論出初步的構想。在概略解方面,我們計劃先過濾喜好度過低的特徵分類;在精確解方面,我們將設計一個符合三角不等式概念的衡量基準,最佳的情況將能大量降低系統的運算時間。本計劃將更深入研究有關計算樹狀結構edit distance的有效率演算法,同時將會把本研究所提出的技巧,實做在中興大學的圖書館個人化推薦系統。本研究的執行,預計將在學術研究、實務應用及學生能力的增進上,都帶來極大的助益

    Enforcing Wireless Network Security by Packet Analysis and Data Stream Mining Techniques

    No full text
    隨著無線網路技術的成熟,無線訊號快速地遍佈在我們的週遭,也使得多采多姿的網路活動,更深層地滲透到我們的生活,例如:電子商務、行動通訊等。也因此,無線網路安全問題也更加嚴重,從政府、企業、組織、到個人,都面臨各式各樣的資訊威脅,例如駭客入侵、病毒攻擊、網路資訊竊取、非法無線AP(Rogue Access Point)的架設等問題。這些問題的解決或防護,均有賴於迅速且動態的解決方案。針對無線網路安全問題,我們選擇了三個目前迫切需要解決的問題,提出一個三年期的研究計畫--「以封包分析及資料串流挖掘強化無線網路之安全性」。分別是第一年的「非法無線網路存取點偵測系統的設計與實作」,第二年的「非法無線網路存取點定位問題之研究」,以及第三年的「植基於異常資料串流挖掘的網路入侵偵測系統實作」。第一年的計畫目標是完成「非法無線網路存取點偵測系統的設計與實作」,本系統將使用我們提出的新技術去分析網路封包,根據實驗結果,此方法幾乎可以達到百分之一百偵測出某個IP是否是非法AP。據我們所知,此項成果應是此問題目前最好的解決方法。第二年的計畫目標是完成「非法無線網路存取點定位問題之研究」,我們將根據過去幾年我們在無線區域網路定位系統之研究成果,去解決下列問題:一旦偵測出某個IP是非法AP,能否有效率地定位此非法AP之位置?第三年的計畫目標是完成「植基於異常資料串流挖掘的網路入侵偵測系統實作」,我們將應用資料串流挖掘(Data Stream Mining)技術,提出一個Frequent PatternStream 演算法,以便能即時偵測動態之網路入侵行為。這三個子系統完成後,都將使用幾乎相同的硬體設備,在中興大學計算機及資訊網路中心的網路環境,對網路封包進行不同之分析與測試

    一個支援快速SPARQL查詢的RDF索引方法

    No full text
    由於目前的電腦系統對於網頁內容的「意義」(meaning or semantic)仍無法完全理解,因此,由機器自動處理網頁資料仍然無法實現。語意網(Semantic Web)與語意搜尋(Semantic Search)概念的推出,主要是為了幫助電腦系統了解網頁內容的「意義」,進一步能自動化處理網頁資料。然而,上述系統的建立,與語意網基礎元件RDF(Resource Description Framework)技術的發展以及是否能夠有效率地查詢RDF資料息息相關。目前已知的SPARQL查詢與RDF索引研究中,仍無一套節省RDF索引空間與快速回應SPARQL Join查詢的整合方案,本計畫提出一個節省空間且有效率的RDF索引演算法,支援RDF查詢語言-SPARQL,能快速地查詢RDF資料。本研究的成果可以作為發展語意網與語意搜尋等應用的基礎。The meaning or semantics of web information could not be fully understood by computers at this stage. As a result, computers cannot process web information directly or automatically. The purpose of semantic web or semantic search is to add semantics to web information or search. To do this, World Wide Web Consortium (W3C) has developed Resource Description Framework (RDF) as a major technology for representing information about resources in the World Wide Web. Therefore, querying RDF data efficiently is an important technique for realizing semantic web.There are several algorithms proposed for indexing RDF data in the past several years. However, the problem of reducing index size and fast SPARQL JOIN processing remains. In this research proposal, we will propose an efficient RDF indexing method for SPARQL query processing. The proposed indexing method can not only reduce the index size but also has fast response time for SPARQL queries. The performance of the proposed scheme will be evaluated against with other RDF indexing methods such as TripleT and Hexastore

    支援更新機制的XML文件壓縮與索引方法

    No full text
    Due to the wide-spread deployment of business-to-business (B2B) E-commerce, XML has become the standard format for data exchange in the Internet. Therefore, how to process queries efficiently on rapidly increasing XML documents is an important research issue. Without efficient indices, XML query languages, such as XQuery and XPath, using label paths to traverse the semi-structured data can be quite time-consuming due to exhaustive traversal on XML data.Various indexing techniques have been proposed in the literature. However, they suffer from some of the following problems in various degrees. First, some indexing methods require huge size of index structures, which could be bigger than the original XML document. Second, some of them require lots of time to build the index in order to minimize the size of index structures. Third, some of them cannot support complex queries efficiently. Finally, efficient and dynamic updates, such as insertion, deletion, and modification, are not supported in most of the published indexing methods.To overcome the aforementioned problems, we propose a novel indexing method which uses hash-based tables and array to build indices. The proposed method not only compresses XML documents with high compression rate but also supports various queries efficiently without accessing the original XML documents. Another important feature of this method is the low cost of update processing. Without index rebuilding, it can support update operations defined in W3C XQuery Update Facility 1.0 by making small changes on the index structures.XML目前已成為網際網路上資料溝通和資料交換的標準,面對越來越多的文件以XML格式編寫,如何支援使用者快速查詢的需求,已是一個重要的研究課題。文獻上有許多XML索引方法和技術被提出,不過這些索引研究中,或多或少都有以下的缺點:許多索引方法需要很大的索引空間,有些研究在使用特定的資料集時,其索引結構甚至比原始XML文件還大。部份的方法需要花費很長的時間去建構索引,如果每次查詢都要等待索引的建構,並不符合實際所需。有些方法只適用於某些型態的查詢結構,部份查詢、分支查詢、指定內容值的查詢,或更複雜的查詢組合,就無法有效的被處理。更重要的是,大多數的索引技術都不支援文件的更新。本研究計畫提出一個新的索引方法試圖解決上述的問題,我們採用Structural summary index的方法將XML文件壓縮,再使用簡單的資料結構Hash table群聚相同標籤名稱的節點,達到節省空間及快速取得資料的優點。這個索引結構可以取代原來的XML文件,支援各種型態的查詢時,不需要再參考原來的文件。同時在處理W3C所定義的更新運算時,只需要變更小部份的索引結構或內容,花費極小的成本即可達到更新的目的
    corecore