8 research outputs found

    Salt-Resistant Solar Steam Generator Using Laser-Induced Graphitization of Wood

    No full text
    MasterSolar steam generation is regarded as promising desalination technologies because it is environmentally friendly system to generate desalinate steam directly. However, salts precipitated on the surface reduced evaporation efficiency and inhibit long-term operation during evaporation in saline water. Here, we demonstrate the salt-resistant solar steam generation using eco-friendly wood and easy fabrication method by CO2 laser. Due to the laser-induced graphite as light absorbing material, the rapid evaporation rate of 1.22 kg m-1 h-1 was demonstrated under 1 sun irradiation. Also, the stable salt-resistant performance was demonstrated by grid shaped groove which was easily fabricated by CO2 laser. Due to the water path created in groove play an important role for continuous re-dissolution of salts and diffusion with bulk water, enabling excellent salt-resistant performance even in high salinity brine. Compared to other SSG, the LIG-G SSG exhibits high energy conversion efficiency (75 %) and salt-resistant performance (until the saturation of the solution) under 1 sun irradiation.본 논문에서는 이산화탄소 레이저에 의한 레이저 유도 흑연화를 이용하여 제조된 친환경 내염성 태양열 증기 발생기를 개발하였다. 태양열 증기발생기는 담수화 된 증기를 직접 생성하는 환경 친화적 시스템이기 때문에 유망한 담수화 기술로 간주된다. 그러나, 표면에 석출된 염은 증발 효율을 감소시키고 염수에서의 증발 동안 장기적인 작동을 억제한다. 따라서 본 논문에서는 친환경적인 나무를 사용하여 내염성 태양열 증기발생기를 이산화탄소 레이저로 쉽게 제작할 수 있는 방법을 개발하였다. 이산화탄소 레이저를 이용하여 빛을 흡수하는 물질인 레이저-유도 흑연을 쉽게 합성하였고, 따라서 1 kW m-2의 빛 조사 하에서 1.22 kg m-1 h-1의 빠른 증발속도를 나타냈다. 또한 이산화탄소 레이저를 이용하여 격자모양의 홈을 쉽게 제작하여 내염 성능을 나타냈다. 홈에서 생성된 수로로 인해 석출된 염의 지속적인 재 용해 및 확산이 일어나 염분이 높은 염수에서도 우수한 내염성 성능을 나타냈다. 다른 태양열 증기발생기와 비교하여 본 논문에서 개발한 태양열 증기발생기는 높은 에너지 변환 효율 (75 %)과 용액의 포화상태까지 우수한 내염성 성능을 나타냈다

    Political Participation in the Age of Economic Polarization: How Perceptions of Class Mobility Affect Different Types of Participation in Korea?

    No full text
    한국 사회에서 경제적 양극화가 심화되고 계층이동성이 하락하면서, 이러한 상황을 반영한 자조적인 표현들이 대중들의 담론과 인식에서도 널리 퍼지고 있다. 본 논문은 이러한 한국 사회의 변화가 유권자들의 정치참여에 어떠한 영향을 끼치는지 경험적으로 살펴보고 있다. 보다 구체적으로 계층상승이 더 이상 가능하지 않다고 인식하는 유권자들은 정치에 더욱 적극적으로 참여하는지, 그리고 계층이동성에 대한 인식의 영향력은 정치참여의 서로 다른 양식 및 유권자 본인의 계층 지위에 따라 어떻게 달라지는지 살펴보고 있다. 결과에 따르면 계층상승이 어렵다는 인식은 주관적 계층 지위가 낮은 유권자들 사이에서 투표참여를 저하시키지만 대신에 비제도적 참여는 증가시키며, 반면에 주관적 계층 지위가 높은 유권자들 사이에서는 동일한 인식이 투표참여의 증가와 비제도적 참여의 감소로 이어진다. In an era of rising economic inequality, Korean society has witnessed the decline in class mobility which is well reflected in public discourse and perceptions. This paper empirically examines how this change in Korean society influences the political participation of the Korean electorate. To be more specific, this paper attempts to answer to following questions: do voters, if they believe that their chances of moving up the socioeconomic ladder are slim, participate more or less in politics?; do the effects of perceptions of class mobility differ across voters own socioeconomic status as well as across different types of political participation? Results show that perceptions of declining class mobility decrease voter turnout, but increase other non-institutional forms of political participation, among voters with low subjective socioeconomic status. On the contrary, among voters with high subjective socioeconomic status, perceptions of declining class mobility lead them to participate more in voting but less in other non-institutional forms of political participation

    Neural phoneme models with Feature embedding

    No full text
    학위논문 (석사) -- 서울대학교 대학원 : 인문대학 언어학과, 2020. 8. 신효필.본 연구는 다양한 자연어처리 과제의 해결을 위해 단어 내 정보에 대한 효과적인 신경망 음소 모델을 찾고자 하였다. 신경망 음소 모델을 개선하기 위해 자질(feature) 정보를 자질 임베딩(feature embedding)을 이용하여 반영하였다. 신경망을 이용하여 음소배열제약을 학습한 기존 연구에서는 자질(feature) 정보를 1, -1, 0으로 매핑하여 음소 임베딩을 초기화했다. 이렇게 자질을 반영한 모델은 자질이 반영되지 않은 모델과 비교하여 더 높은 성능을 보여주지 못했다. 이런 자질 정보의 활용을 소극적이라고 보고, 본 연구에서는 자질 임베딩(feature embedding)을 도입하여 각 자질마다의 임베딩을 구축하도록 모델을 설계하였다. 자질 정보를 포함하지 않는 음소 임베딩(phone embedding)을 이용하는 방식, 자질 임베딩만으로 음소 임베딩(phone embedding)을 만드는 음소-자질 임베딩(phone by feature embedding)을 사용하는 방식과 음소-자질 임베딩(phone by feature embedding)에 음소 임베딩(phone embedding)을 결합하는 방식을 실험함으로써 자질 정보의 포함이 모델의 성능을 높일 수 있는지를 알아보고, 자질 정보를 포함하는 최적의 방식을 확인하고자 한다. 실험은 한국어와 영어를 대상으로 진행하였으며, 모델은 트랜스포머 인코더(Transformer Encoder)를 사용하였다. 실험의 결과로 음소-자질 임베딩(phone by feature embedding)만을 활용한 모델이 음소 임베딩(phone embedding)을 사용한 모델보다 평균적으로 4~5%의 성능향상을 보였으며 이 방식이 음소 모델 구축에 효과적임을 확인할 수 있었다. 훈련한 임베딩을 군집화 한 결과로 음소-자질 임베딩(phone by feature embedding)만을 활용하는 방식이 자질 정보를 가장 뚜렷하게 구분하였다. 이는 실험에서 가장 높은 성능을 보인 음소-자질 임베딩(phone by feature embedding)만을 활용하는 방식이 설계의 의도대로 자질(feature) 정보를 반영하였음을 보였다.The purpose of this thesis is to reveal the usefulnes of feature information in neural network phoneme model. In previous research, for the aim of comparing feature-aware condition to feature-naive condition in neural network phoneme model, phone embeddings are usualy initialized by mapping feature information to 1, -1, and 0. The model using this initialization did not show higher performance compared to those without feature information. To make more use of feature information, this study aims to design neural phoneme model by introducing feature embedding. To ases the obligatorines of phonological distinctive features for phonotactic learning, experiments have done with thre diferent embedding methods: phone embedding, phone by feature embedding, and phone & feature embedding. It was conducted with English data and Korean data, and base structure of our model is Transformer Encoder. As the results, the model using phone by feature embedding outperforms the others about 4~5%, sugesting that this knowledge of distinctive features would be regarded as a help rather than a slight hindrance. As a result of clustering with learned embedding, the model of phone by feature embedding clearly distinguishes the most feature information, which supports the use of feature information is efective in phonotactic learning through neural network.1. 서론 1 2. 선행 연구 5 2.1. 음소 임베딩 6 2.2. LSTM 기반의 음소 모델 10 2.3. RNN 기반의 음소 모델 12 3. Transformer Encoder 18 4. 모델 25 4.1. 모델의 구조 27 4.2. Input representation 28 4.2.1. Phone embedding 29 4.2.2. Phone by Feature embedding 31 4.2.3. Phone & Feature embedding 34 5. 실험 36 5.1. 데이터 36 5.1.1. 사전학습 37 5.1.2. 사후학습 37 5.2. 학습 환경 43 5.2.1. 사전학습 44 5.2.2. 사후학습 46 5.3. 평가 47 5.4. 결과 48 5.4.1. 영어 음소 모델 50 5.4.2. 한국어 음소 모델 54 6. 분석 57 7. 결론 66 참고문헌 71 부록 78 Abstract 85Maste

    A Small-Scale Korean-Specific BERT Language Model

    No full text
    최근 자연어처리에서 문장 단위의 임베딩을 위한 모델들은 거대한 말뭉치와 파라미터를 이용하기 때문에 큰 하드웨어와 데이터를 요구하고 학습하는 데 시간이 오래 걸린다는 단점을 갖는다. 따라서 규모가 크지 않더라도 학습 데이터를 경제적으로 활용하면서 필적할만한 성능을 가지는 모델의 필요성이 제기된다. 본 연구는 음절 단위의 한국어 사전, 자소 단위의 한국어 사전을 구축하고 자소 단위의 학습과 양방향 WordPiece 토크나이저를 새롭게 소개하였다. 그 결과 기존 모델의 1/10 사이즈의 학습 데이터를 이용하고 적절한 크기의 사전을 사용해 더 적은 파라미터로 계산량은 줄고 성능은 비슷한 KR-BERT 모델을 구현할 수 있었다. 이로써 한국어와 같이 고유의 문자 체계를 가지고 형태론적으로 복잡하며 자원이 적은 언어에 대해 모델을 구축할 때는 해당 언어에 특화된 언어학적 현상을 반영해야 한다는 것을 확인하였다. Recent models for the sentence embedding use huge corpus and parameters. They have massive data and large hardware and it incurs extensive time to pre-train. This tendency raises the need for a model with comparable performance while economically using training data. In this study, we proposed a Korean-specific model KR-BERT, using sub-character level to character-level Korean dictionaries and BidirectionalWordPiece Tokenizer. As a result, our KR-BERT model performs comparably and even better than other existing pre-trained models using one-tenth the size of training data from the existing models. It demonstrates that in a morphologically complex and resourceless language, using sub-character level and BidirectionalWordPiece Tokenizer captures language-specific linguistic phenomena that the Multilingual BERT model missed.N
    corecore