28 research outputs found
λμμ μ€νλλ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ λ€μ μν λ³λ ¬μ± κ΄λ¦¬
νμλ
Όλ¬Έ (λ°μ¬) -- μμΈλνκ΅ λνμ : 곡과λν μ κΈ°Β·μ»΄ν¨ν°κ³΅νλΆ, 2020. 8. Bernhard Egger.Running multiple parallel jobs on the same multicore machine is becoming more important to improve utilization of the given hardware resources. While co-location of parallel jobs is common practice, it still remains a challenge for current parallel runtime systems to efficiently execute multiple parallel applications simultaneously. Conventional parallelization runtimes such as OpenMP generate a fixed number of worker threads, typically as many as there are cores in the system, to utilize all physical core resources. On such runtime systems, applications may not achieve their peak performance when given full use of all physical core resources. Moreover, the OS kernel needs to manage all worker threads generated by all running parallel applications, and it may require huge management costs with an increasing number of co-located applications.
In this thesis, we focus on improving runtime performance for co-located parallel applications. To achieve this goal, the first idea of this work is to ensure spatial scheduling to execute multiple co-located parallel applications simultaneously. Spatial scheduling that provides distinct core resources for applications is considered a promising and scalable approach for executing co-located applications. Despite the growing importance of spatial scheduling, there are still two fundamental research issues with this approach. First, spatial scheduling requires a runtime support for parallel applications to run efficiently in spatial core allocation that can change at runtime. Second, the scheduler needs to assign the proper number of core resources to applications depending on the applications performance characteristics for better runtime performance.
To this end, in this thesis, we present three novel runtime-level techniques to efficiently execute co-located parallel applications with spatial scheduling. First, we present a cooperative runtime technique that provides malleable parallel execution for OpenMP parallel applications. The malleable execution means that applications can dynamically adapt their degree of parallelism to the varying core resource availability. It allows parallel applications to run efficiently at changing core resource availability compared to conventional runtime systems that do not adjust the degree of parallelism of the application. Second, this thesis introduces an analytical performance model that can estimate resource utilization and the performance of parallel programs in dependence of the provided core resources. We observe that the performance of parallel loops is typically limited by memory performance, and employ queueing theory to model the memory performance. The queueing system-based approach allows us to estimate the performance by using closed-form equations and hardware performance counters.
Third, we present a core allocation framework to manage core resources between co-located parallel applications. With analytical modeling, we observe that maximizing both CPU utilization and memory bandwidth usage can generally lead to better performance compared to conventional core allocation policies that maximize only CPU usage. The presented core allocation framework optimizes utilization of multi-dimensional resources of CPU cores and memory bandwidth on multi-socket multicore systems based on the cooperative parallel runtime support and the analytical model.λ©ν°μ½μ΄ μμ€ν
μμ μ¬λ¬ κ°μ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€μ ν¨κ» μ€νμν€λ κ² μ μ£Όμ΄μ§ νλμ¨μ΄ μμμ ν¨μ¨μ μΌλ‘ μ¬μ©νκΈ° μν΄μ μ μ λ μ€μν΄μ§κ³ μλ€. νμ§λ§, νμ¬ λ°νμ μμ€ν
μμ μ¬λ¬ κ°μ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€μ λμμ ν¨μ¨μ μΌλ‘ μ€νμν€λ κ²μ μ¬μ ν μ΄λ €μ΄ λ¬Έμ μ΄λ€. OpenMPμ κ°μ΄ ν΅μ μ¬ μ©λλ λ³λ ¬ν λ°νμ μμ€ν
λ€μ λͺ¨λ νλμ¨μ΄ μ½μ΄ μμμ μ¬μ©νκΈ° μν΄μ μΌλ°μ μΌλ‘ μ½μ΄ κ°μ λ§νΌ μ€λ λλ₯Ό μμ±νμ¬ μ΄ν리μΌμ΄μ
μ μ€νμν¨λ€. μ΄ λ, μ΄ν리μΌμ΄μ
μ λͺ¨λ μ½μ΄ μμμ νμ©ν λ μ€νλ € μ΅μ μ μ±λ₯μ μ»μ§ λͺ»ν μλ μμΌλ©°, μ΄μ체μ 컀λμ λΆνλ μ€νλλ μ΄ν리μΌμ΄μ
μ κ°μκ° λμ΄λ μλ‘ κ΄λ¦¬ν΄μΌ νλ μ€λ λμ κ°μκ° λμ΄λκΈ° λλ¬Έμ κ³μν΄μ 컀μ§κ² λλ€.
λ³Έ νμ λ
Όλ¬Έμμ, μ°λ¦¬λ ν¨κ» μ€νλλ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€μ λ°νμ μ±λ₯μ λμ΄λ κ²μ μ§μ€νλ€. μ΄λ₯Ό μν΄, λ³Έ μ°κ΅¬μ ν΅μ¬ λͺ©νλ ν¨κ» μ€νλλ μ΄ν리μΌμ΄μ
λ€μκ² κ³΅κ° λΆν μ μ€μΌμ€λ§ λ°©λ²μ μ μ©νλ κ²μ΄λ€. κ° μ΄ν리 μΌμ΄μ
μκ² λ
립μ μΈ μ½μ΄ μμμ ν λΉν΄μ£Όλ κ³΅κ° λΆν μ μ€μΌμ€λ§μ μ μ λ λμ΄λλ μ½μ΄ μμμ κ°μλ₯Ό ν¨μ¨μ μΌλ‘ κ΄λ¦¬νκΈ° μν λ°©λ²μΌλ‘ λ§μ κ΄μ¬μ λ°κ³ μλ€. νμ§λ§, κ³΅κ° λΆν μ€μΌμ€λ§ λ°©λ²μ ν΅ν΄ μ΄ν리μΌμ΄μ
μ μ€νμν€λ κ²μ λ κ°μ§ μ°κ΅¬ κ³Όμ λ₯Ό κ°μ§κ³ μλ€. λ¨Όμ , κ° μ΄ν리μΌμ΄μ
μ κ°λ³μ μΈ μ½μ΄ μμ μμμ ν¨μ¨μ μΌλ‘ μ€νλκΈ° μν λ°νμ κΈ°μ μ νμλ‘ νκ³ , μ€μΌμ€λ¬λ μ΄ν리μΌμ΄μ
λ€μ μ±λ₯ νΉμ±μ κ³ λ €ν΄μ λ°νμ μ±λ₯μ λμΌ μ μλλ‘ μ λΉν μμ μ½μ΄ μμμ μ 곡ν΄μΌνλ€.
μ΄ νμ λ
Όλ¬Έμμ, μ°λ¦¬λ ν¨κ» μ€νλλ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€μ κ³΅κ° λΆ ν μ€μΌμ€λ§μ ν΅ν΄μ ν¨μ¨μ μΌλ‘ μ€νμν€κΈ° μν μΈκ°μ§ λ°νμ μμ€ν
κΈ°μ μ μκ°νλ€. λ¨Όμ μ°λ¦¬λ νλμ μΈ λ°νμ μμ€ν
μ΄λΌλ κΈ°μ μ μκ°νλλ°, μ΄λ OpenMP λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€μκ² μ μ°νκ³ ν¨μ¨μ μΈ μ€ν νκ²½μ μ 곡νλ€. μ΄ κΈ°μ μ 곡μ λ©λͺ¨λ¦¬ λ³λ ¬ μ€νμ λ΄μ¬λμ΄ μλ νΉμ±μ νμ©νμ¬ λ³λ ¬μ²λ¦¬ νλ‘κ·Έλ¨λ€μ΄ λ³ννλ μ½μ΄ μμμ λ§μΆμ΄ λ³λ ¬μ±μ μ λλ₯Ό λμ μΌλ‘ μ‘°μ ν μ μλλ‘ ν΄μ€λ€. μ΄λ¬ν μ μ°ν μ€ν λͺ¨λΈμ λ³λ ¬ μ΄ν리μΌμ΄μ
λ€μ΄ μ¬μ© κ°λ₯ν μ½μ΄ μμμ΄ λμ μΌλ‘ λ³ννλ νκ²½μμ μ΄ν리μΌμ΄μ
μ μ€λ λ μμ€ λ³λ ¬μ±μ λ€λ£¨μ§ λͺ»νλ κΈ°μ‘΄ λ°νμ μμ€ν
λ€μ λΉν΄μ λ ν¨μ¨μ μΌλ‘ μ€νλ μ μλλ‘ ν΄μ€λ€.
λλ²μ§Έλ‘, λ³Έ λ
Όλ¬Έμ μ¬μ©λλ μ½μ΄ μμμ λ°λ₯Έ λ³λ ¬μ²λ¦¬ νλ‘κ·Έλ¨μ μ±λ₯ λ° μμ νμ©λλ₯Ό μμΈ‘ν μ μλλ‘ ν΄μ£Όλ λΆμμ μ±λ₯ λͺ¨λΈμ μκ°νλ€. λ³λ ¬ μ²λ¦¬ μ½λμ μ±λ₯ νμ₯μ±μ΄ μΌλ°μ μΌλ‘ λ©λͺ¨λ¦¬ μ±λ₯μ μ’μ°λλ€λ κ΄μ°°μ κΈ°μ΄νμ¬, μ μλ ν΄μ λͺ¨λΈμ νμ μ΄λ‘ μ νμ©νμ¬ λ©λͺ¨λ¦¬ μμ€ν
μ μ±λ₯ μ 보λ€μ κ³μ°νλ€. μ΄ νμ μμ€ν
μ κΈ°λ°ν λ°©λ²μ μ μ©ν μ±λ₯ μ 보λ€μ μμμ ν΅ν΄ ν¨μ¨μ μΌλ‘ κ³μ°ν μ μλλ‘ νλ©° μμ© μμ€ν
μμ μ 곡νλ νλμ¨μ΄ μ±λ₯ μΉ΄μ΄ν°λ§μ μꡬ νκΈ° λλ¬Έμ νμ© κ°λ₯μ± λν λλ€.
λ§μ§λ§μΌλ‘, λ³Έ λ
Όλ¬Έμ λμμ μ€νλλ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
λ€ μ¬μ΄μμ μ½μ΄ μμμ ν λΉν΄μ£Όλ νλ μμν¬λ₯Ό μκ°νλ€. μ μλ νλ μμν¬λ λμμ λ μνλ λ³λ ¬ μ²λ¦¬ μ΄ν리μΌμ΄μ
μ λ³λ ¬μ± λ° μ½μ΄ μμμ κ΄λ¦¬νμ¬ λ©ν° μμΌ λ©ν°μ½μ΄ μμ€ν
μμ CPU μμ λ° λ©λͺ¨λ¦¬ λμν μμ νμ©λλ₯Ό λμμ μ΅μ ννλ€. ν΄μμ μΈ λͺ¨λΈλ§κ³Ό μ μλ μ½μ΄ ν λΉ νλ μμν¬μ μ±λ₯ νκ°λ₯Ό ν΅ν΄μ, μ°λ¦¬κ° μ μνλ μ μ±
μ΄ μΌλ°μ μΈ κ²½μ°μ CPU μμμ νμ©λλ§μ μ΅μ ννλ λ°©λ²μ λΉν΄μ ν¨κ» λμνλ μ΄ν리μΌμ΄μ
λ€μ μ€νμκ°μ κ°μμν¬ μ μμμ 보μ¬μ€λ€.1 Introduction 1
1.1 Motivation 1
1.2 Background 5
1.2.1 The OpenMP Runtime System 5
1.2.2 Target Multi-Socket Multicore Systems 7
1.3 Contributions 8
1.3.1 Cooperative Runtime Systems 9
1.3.2 Performance Modeling 9
1.3.3 Parallelism Management 10
1.4 Related Work 11
1.4.1 Cooperative Runtime Systems 11
1.4.2 Performance Modeling 12
1.4.3 Parallelism Management 14
1.5 Organization of this Thesis 15
2 Dynamic Spatial Scheduling with Cooperative Runtime Systems 17
2.1 Overview 17
2.2 Malleable Workloads 19
2.3 Cooperative OpenMP Runtime System 21
2.3.1 Cooperative User-Level Tasking 22
2.3.2 Cooperative Dynamic Loop Scheduling 27
2.4 Experimental Results 30
2.4.1 Standalone Application Performance 30
2.4.2 Performance in Spatial Core Allocation 33
2.5 Discussion 35
2.5.1 Contributions 35
2.5.2 Limitations and Future Work 36
2.5.3 Summary 37
3 Performance Modeling of Parallel Loops using Queueing Systems 38
3.1 Overview 38
3.2 Background 41
3.2.1 Queueing Models 41
3.2.2 Insights on Performance Modeling of Parallel Loops 43
3.2.3 Performance Analysis 46
3.3 Queueing Systems for Multi-Socket Multicores 54
3.3.1 Hierarchical Queueing Systems 54
3.3.2 Computingthe Parameter Values 60
3.4 The Speedup Prediction Model 63
3.4.1 The Speedup Model 63
3.4.2 Implementation 64
3.5 Evaluation 65
3.5.1 64-core AMD Opteron Platform 66
3.5.2 72-core Intel Xeon Platform 68
3.6 Discussion 70
3.6.1 Applicability of the Model 70
3.6.2 Limitations of the Model 72
3.6.3 Summary 73
4 Maximizing System Utilization via Parallelism Management 74
4.1 Overview 74
4.2 Background 76
4.2.1 Modeling Performance Metrics 76
4.2.2 Our Resource Management Policy 79
4.3 NuPoCo: Parallelism Management for Co-Located Parallel Loops 82
4.3.1 Online Performance Model 82
4.3.2 Managing Parallelism 86
4.4 Evaluation of NuPoCo 90
4.4.1 Evaluation Scenario 1 90
4.4.2 Evaluation Scenario 2 98
4.5 MOCA: An Evolutionary Approach to Core Allocation 103
4.5.1 Evolutionary Core Allocation 104
4.5.2 Model-Based Allocation 106
4.6 Evaluation of MOCA 113
4.7 Discussion 118
4.7.1 Contributions and Limitations 118
4.7.2 Summary 119
5 Conclusion and Future Work 120
5.1 Conclusion 120
5.2 Future work 122
5.2.1 Improving Multi-Objective Core Allocation 122
5.2.2 Co-Scheduling of Parallel Jobs for HPC Systems 123
A Additional Experiments for the Performance Model 124
A.1 Memory Access Distribution and Poisson Distribution 124
A.1.1 Memory Access Distribution 124
A.1.2 Kolmogorov Smirnov Test 127
A.2 Additional Performance Modeling Results 134
A.2.1 Results with Intel Hyperthreading 134
A.2.2 Results with Cooperative User-Level Tasking 134
A.2.3 Results with Other Loop Schedulers 138
A.2.4 Results with Different Number of Memory Nodes 138
B Other Research Contributions of the Author 141
B.1 Compiler and Runtime Support for Integrated CPU-GPU Systems 141
B.2 Modeling NUMA Architectures with Stochastic Tool 143
B.3 Runtime Environment for a Manycore Architecture 143
μ΄λ‘ 159
Acknowledgements 161Docto
2012 λ©μμ½ νμμ΄λ, λ΄κ° 132λ²μ§Έ
λ©μμ½μμ μ μμ΄λ€μ μ κ±°λ μ μΉμ 무κ΄μ¬ν κ³μΈ΅μΌλ‘ λΆλ₯λλ€. μ΄ λλΌμμ μ μΉλ μ μΉκ°μ λν μ΄λ―Έμ§λ λΆμ μ μ΄λ€. κ°μ₯ λ¨Όμ λΆμ κ³Ό λΆν¨κ° μ°μλκΈ° λλ¬Έμ΄λ€. μ΄λ° νμ€μμ μ μμ΄λ€μ μ μΉμ λν 무κ΄μ¬μ μ΄μ©λ©΄ λΉμ°ν κ²μΈμ§λ λͺ¨λ₯Έλ€. κ·Έλ¬λ 2012λ
λ©μμ½ λν΅λ Ή μ κ±°λ λ€λ₯Έ μ΄λ μ κ±° λλ³΄λ€ μ μ μΈ΅μ κ΄μ¬μ΄ λ¨κ±°μ λ€. μ κ±°μΌ 50μΌμ λ¨κ²¨λκ³ κ°μκΈ° λΆμν λ΄κ° 132λ²μ§Έ(#Yo Soy 132)λ λμ μ κ΅μ μ£Όμ λ³μλ‘ λ μ¬λλ€. 맀μ€λ―Έλμ΄μ μ¬λ‘ μ‘°μ¬ κΈ°κ΄μ΄ μ λνλͺ
λΉ(PRI) νλ λμν (Enrique PeΓ±a Nieto) ν보μ μΉλ¦¬λ₯Ό μ μΉλ μν©μμλ΄κ° 132λ²μ§Έμ λ±μ₯μ κ³μ μΉμΉμ₯ꡬνλ μ λνλͺ
λΉμ ν° ν격μ μ£Όμλ€. λ°λ©΄μ λ€λ₯Έ μ λΉκ³Ό μλ―Όμ¬νλ¨μ²΄, λ³νλ₯Ό λ°λΌλ κ΅λ―Όμκ²λ λ΅λ΅ν λμ μ κ΅μ μ μ ν λ°λμ΄ λμ΄μ£Όμλ€. νμμ μ μΉΒ·μ¬νμ μ°Έμ¬λ λ©μμ½ μ¬νμ μλ‘μ΄ νλ ₯κ³Ό λμμ μ°λ €λ λ³μλ€. νμλ€μ λ€μν μ¬νΒ·μ μΉμ μ΄μμ κ°μ
νκΈ° μμνκ³ , κ·Έλ€μ νλμ λμ κΈ°κ°μ νμ λ κ²μ΄ μλλΌ λμ μ΄
νμλ κ³μλμλ€. μ΄μ λ©μμ½μμ μ μμ΄λ€, νΉν λνμλ€μ 1960λ
λ μ΄ν λ€μκΈ μ€μν μ¬ν λ³νμ 주체μ΄μ μ μΉμ νμμλ‘ λΆμνλ€.
μ΄ κΈμ λ΄κ° 132λ²μ§Έ νμμ΄λμ κΈ°μκ³Ό λ±μ₯ λ°°κ²½, μ‘°μ§νμ λ°μ λ° λ΄κ° 132λ²μ§Έ νμμ΄λκ³Ό 맀μ€λ―Έλμ΄μ λ―Όμ£Όν λ¬Έμ , κ·Έλ¦¬κ³ μ΄ νμμ΄λμ νΉμ±κ³Ό νκ³μ λν΄ κ°λ¨ν μ΄ν΄λ³΄λ λ° λͺ©μ μ΄ μλ€.μ΄ μ μλ 2008λ
μ λΆ(κ΅μ‘λΆ)μ μ¬μμΌλ‘ νκ΅μ°κ΅¬μ¬λ¨μ μ§μμ λ°μ μνλ μ°κ΅¬μ(NRF-2008-362-B00015
λ‘λ² λ₯΄ 리카λ₯΄μ <λ©μμ½ μνΌμ μ 볡>
μΈκ³μ§λμ κ·Έλ €μ§μ§ μμλ λ―Έμ§μ λλ₯, μ λλ―Έλ¬Έμ λ¬Έλͺ
κ³Όμ λ§λ¨μ΄λΌλ 좩격과 ν¨κ» 16μΈκΈ°λ μμλμλ€. μ΄ μκΈ°λ νλ§λλ‘ μΈμλ‘ μ 좩격과 μλ‘μ΄ νμ€μ λν λ³νκ³Ό μ μμ΄λΌλ κ³Όμ κ° κ³΅μ‘΄νλ νΌλκ³Ό ν¬λ§μ μλμλ€. 1492λ
μ΄ν λΌν΄μλ©λ¦¬μΉ΄ λλ₯μ νλ ₯μ μμΈμ΄ μ λ½μ΄κ°μ μν΄ μ λ ΉλΉνκ³ μλ―Όνλμλ€. μ΄λ₯Ό μΌμ»¬μ΄ μμ¬κ°λ€μ μ μΉμ μ 볡, νΉμ κ΅°μ¬μ μ 볡μ΄λΌκ³ λΆλ₯Έλ€. κ·ΈλΌ μλ―Όμ§ μμ£Όλ―Όμ μ ν΅ λ¬Ένκ° νκ΄΄λκ³ λ°κ°μ μ μΌλ‘ 그리μ€λκ΅λ‘ κ°μ’
λ κ²μ 무μμ΄λΌκ³ λΆλ₯Ό μ μμκΉ? νλμ€μ μ¬νμ λ‘λ² λ₯΄ 리카λ₯΄(Robert Ricard, 1900βΌ1984)λ μλ―Όμ§ μ£Όλ―Όμ μ μ μ , λ¬Ένμ , μ’
κ΅μ μλ―Όν κ³Όμ μ μνΌμ μ 볡(Conquista espiritual)μ΄λΌλ λ§λ‘ λμΉνλ€. μ λ½μΈμ μ
μ₯μμ 보면 볡μνμ μ κ΅ κ³Όμ μ μΌλΆμμ§λ§, μμ£Όλ―Ό μ
μ₯μμλ λ λ€λ₯Έ μλ―Έμ μ 볡μ΄μκΈ° λλ¬Έμ΄λ€
21μΈκΈ° λΌν΄μλ©λ¦¬μΉ΄ μ’ κ΅ νλ ΈλΌλ§: μκΈ°μ μ²ν κ°ν¨λ¦κ΅ν
μ ν₯μ’
κ΅μ μ μ
κ³Ό 무μμ΄ μλλ‘ λ²μ±νλ κ°μ κ΅λ λΌν΄μλ©λ¦¬μΉ΄ λλ₯μ μΉ΄ν¨λ¦μ μ’
κ΅μμ₯ λ
μ μ 무λνΈλ¦¬κ³ μλ€. μ΄κ²μΌ μ΅κ·Ό λ€μ΄ λμ± λ³΄νΈμ μΌλ‘ μΈμ λλ μ’
κ΅ λ€μμ£Όμγ
무κ΄ν κ²μ΄ μλλ€. 70~80λ
λ λΌν΄μλ©λ¦¬μΉ΄λ₯Ό ν©μ΄ ν΄λ°©μ νκ³Ό ν¬μνλ©΄μ λμ± λ³΄μνν λΌν΄μλ©λ¦¬μΉ΄ μ£Όκ΅λ¨λ€μ μ΅κ·Ό κ°νμ μΆκ΅¬νλ μ’ν μ±ν₯μ μ κΆλ€κ³Ό μ λ©΄μΌλ‘ μΆ©λνλ μμμ 보μ΄κ³ μλ€. μ΄ κΈμμλ μ΄λ° μ¬νμ μ€μμΌλ‘ λνμ μΈ 21μΈκΈ° λΌν΄μλ©λ¦¬μΉ΄ μ’
κ΅ νμμ μ΄ν΄λ³΄κ³ νΉν μ΄ μ§μμ΄ μ§λλ κ°ν¨λ¦κ΅νμ μκΈ°μ λν΄ μ΄μ μ λ§μΆ κ²μ΄λ€
2012λ λ² λ€μμλΌ λμ λΆμ: μ°¨λ² μ€ VS μΉ΄ν릴λ μ€
μ κ΅λ―Όμ΄ κ΄μ¬μ κ°λ λμ μ λ¨κ±°λ¦¬ λ¬λ¦¬κΈ°κ° μλλΌ λ§λΌν€μ λΉμ λλ€. μ§λ 7μ 1μΌ 4μ μ λ
Έλ¦¬λ λ² λ€μμλΌμ ν λν΅λ Ή μ°κ³ μ°¨λ² μ€μ μΌλΉ ν΅ν©ν보 μΉ΄ν릴λ μ€ κ°μ 100μΌ λμμ κΈ°λκΈ΄ λμ λ μ΄μ€κ° μμλμλ€. μ μ§μμ μ¬νμ 건 νν μΉλΆκ° μμλλ©΄μ 2012λ
λ² λ€μμλΌ λμ μ κ΅λ΄ μΈλ‘ λΏ μλλΌ κ΅μ μΈλ‘ 맀체λ€μ κ΄μ¬λ μ¦κ°νκ³ μλ€. μ°¨λ² μ€λ 2007λ
μ μΆμ§ 곡무μ μ°μ μ ν κ·μ μ² ν λ¬Έμ λ₯Ό λ΄κ±Έμλ κ΅λ―Όν¬νμμ λ¨ ν λ² μ§ κ²μ μ μΈνκ³€ μ§λ 14λ
κ° μ κ±°μμ ν¨ν μ μ΄ μλ μ κ±°μ λ¬μΈμ΄λ€. κ·Έλ¬λ μλνλ³΄μΈ 39μΈμ μΉ΄ν릴λ μ€λ μ΄ μ μ μμ΄ μ°¨λ² μ€μκ² μ λ λ€μ§μ§ μλλ€. κ·Έλ 1998λ
μ²μ μ μΉμ μ
λ¬Έν μ΄ν μ§λ 14λ
κ° ν λ²λ μ κ±°μμ ν¨ν μ μ΄ μκΈ° λλ¬Έμ΄λ€. μΉ΄ν릴λ μ€λ μ΄μ , λ λ²μ μμ₯μ κ±°, μ£Όμ§μ¬μ κ±°, μΌλΉν΅ν©ν보 κ²½μ λ± μ λ§μ μ κ±°λ₯Ό μΉλ¦¬λ‘ μ΄λμλ€. κ·Έλ κ·Έ λμ μ°¨λ² μ€ μ§μμ μ¬λ¬ ν보λ€μ λλ§μμΌ°μ λΏ μλλΌ νλΈλ‘ νλ μ€ κ°μ μμν μΌλΉμ μ μΉμΈλ€κΉμ§ λλ₯΄λ κΈ°μΌμ ν νλ€. μ΄λ° μλ―Έμμ μΉ΄ν릴λ μ€λ μ μ§λ§ νλ €ν μ
μΉ κ²½λ ₯μ μλνλ μΈλ¬Όμ΄λ€. κ·Έλ¬λ κ·Έκ° μ΄λ²μ λ§μ£Όν μ°¨λ² μ€λΌλ μλλ κΈ°μ‘΄μ κ²½μμλ€κ³Όλ μ°¨μμ΄ λ€λ₯Έ μΈλ¬Όμ΄λ€. μ€λ μ°ν λ
Έμ μΈ μΉ΄ν릴λ μ€λ μ°¨λ² μ€κ° κΏκΎΈλ 21μΈκΈ° μ¬νμ£Όμ 건μ€μ κΏμ μ’μ μν¬ μ μμκΉ? μ°¨λ² μ€λ μλ‘κ² λΆμνλ μ μ μ μΉμΈμ λλ₯΄κ³ λ€μκΈ μ κ±°μ λ¬μΈμμ μ¦λͺ
ν΄ λ³΄μΌ μ μμκΉ
ꡬμ€ν보 ꡬν°μλ μ€μ γν΄λ°©μ νγ
ν΄λ°©μ νμ λ¬Όκ²°μ΄ κ°μ₯ κ°λ ¬νλ λΈλΌμ§ μνμΈλ£¨ κ΅κ΅¬μ μλ‘ λΆμν μ€μ§λ£¨ νλ루 μ
°λ λ₯΄ λμ£Όκ΅λ ν΄λ°©μ νμ΄ μ§λκ° μ νμ΄ λμλ€κ³
μ μΈνλ€. κ·Έ κ·Όκ±°λ‘ μ μν κ²μ 80λ
λ νλ° λ² λ₯Όλ¦° μ₯λ²½μ λΆκ΄΄μ μ
λ ¨ λ± κ³΅μ°κΆμ λͺ°λ½, λμΉ΄λΌκ³Ό μ°λλμ€ν λ―Όμ‘±ν΄λ°©μ μ μ μ κ±° ν¨λ°°μ
λ€. κ²λ€κ° κ΅ν©μ²μ μλ ₯μΌλ‘ μ§λ³΄ λ
Έμ μ μ νλνκ΅μ μ νκ΅κ° λ¬Έμ
λ«κ³ , μ§λ³΄ μ£Όκ΅κ° μν΄ν κ΅κ΅¬μ 보μ μ£Όκ΅κ° μλͺ
λ κ²λ μ΄λ° λ
Όλ¦¬λ₯Ό
λ·λ°μΉ¨νλ κ·Όκ±°λ‘ μμ©νλ€. μλ°©μ μ£Όμ μΈλ‘ μ λ μ€λλ₯΄λ 보νμ νΌ
μλΈλ¦¬λ
Έ λ± μ£Όμ ν΄λ°©μ νμκ° κ΅ν©μ² μ μκ΅λ¦¬μ±μΌλ‘λΆν° μ§κ³λ₯Ό λ°κ³ ,
ν΄λ°©μ νμ μ΅μν κ΅ν© μν λ°μ€λ‘ 2μΈμ λ€λ₯Ό μ΄μ΄ 보μμ μ±ν₯μ λΌ
μΉκ±° μΆκΈ°κ²½μ΄ κ΅ν© λ² λ€λλ 16μΈλ‘ μ μΆλ μ¬μ€μ μΈκΈνλ©΄μ μ΄μ λ
ν΄λ°©μ νμ΄ μ€μ리λ₯Ό μμλ€κ³ λ
Όννλ€. νλ§λλ‘ λ§νμλ©΄ ν΄λ°©μ νμ
λν μ¬νμ κ³ κ° λ΄λ €μ‘λ€λ κ²μ΄λ€. κ·Έλ¬λ μ΅κ·Όμ λΌν΄μλ©λ¦¬μΉ΄μ νμ€
μ μ΄λ¬ν νκ°κ° μλͺ»λμμμ 보μ¬μ£Όκ³ μλ€. λ―ΈμΉ΄μ λ’°λΉλ ν΄λ°©μ νμ κ΅νμ μΈ‘λ©΄μ΄λ, μ νμ μΈ‘λ©΄μλ§ λ°λΌλ³΄λ νμν μκ° λλ¬Έμ ν΄λ°©μ νμ μ£½μμ΄λΌλ λ
Όλ¦¬κ° νμ°λλ€κ³ 보μλ€. λ’°λΉμ λ°λ₯΄λ©΄, μ΄λμ μΈ‘λ©΄μ΄ μλ ν΄λ°©μ νμ λ¨μν κ°ν¨λ¦κ΅ν μμμ μν λΆμλ¬Όμ΄ μλλ©°, μ΄λ―Έ μ νμ΄λ κ΅νμ μμμ ν¨μ¬ λ²μ΄λ μΈ‘λ©΄μ΄ μλ€
μ보 λͺ¨λλ μ€, νκ²½λ¬Έμ ν΄κ²°μ 리λκ° λλ€
2010λ
4μ μ보 λͺ¨λλ μ€λ κΈ°ν λ³ν λμκ³Ό λμ§(倧ε°)μ κΆλ¦¬λ₯Ό μ£Όμ₯νλ μΈκ³μΈ νμλ₯Ό μ½μ°¨λ°€λ°μμ κ°μ΅νλ€. κ·Έκ° λ³Όλ¦¬λΉμμ μ½μ°¨λ°€λ°λ₯Ό κ°μ΅μ§λ‘ μ μ ν λ°λ μμ§μ μ΄μ κ° μμλ€. μ΄κ³³μ νΉν ν μ§μ μμ°μ μ΄λ¨Έλμ νμΌλ‘ μΈμνλ μμ£Όλ―Όλ€μ μ¬μμ΄ μ λ°μλ μ₯μμ΄λ©°, 10λ
μ μ λΆλ₯Ό μλλ‘ λ―Όμ€
μ΄ μ£Όλν λ¬Ό μ μμμ μΉλ¦¬ν μ±μ§μ΄κΈ° λλ¬Έμ΄λ€. λΉμ μλ°±λ§μ΄ μ¬μ©νλ λ¬Όμ μ¬μ ννλ μ μ±
μ λ°λν΄ μΌμ΄λ λλ―Ό, λ
Έλμ, μ½μΉ΄μ¬λ°°μ
μ, μμ£Όλ―Όμ μ νμ΄λμ μ½μ°¨λ°€λ°μμ μΉλ¦¬λ₯Ό κ±°λ¨Έμ₯μλ€.
λ―Έλμ΄ κ°νκ³Ό λ©μμ½μ λ―Όμ£Όμ£Όμ
2012λ
12μ 1μΌ λ©μμ½μ μ λν΅λ ΉμΌλ‘ μ·¨μν μλ¦¬μΌ νλ λμν (Enrique PeΓ±a Nieto)λ λ©μμ½μ μκΈν νμν κ°νλ€μ λν΄ μΈκΈνλ©° κ·Έμ€ νλλ‘ λ°©μ‘ν΅μ λ² κ°μ μ μ½μνλ€. κ·Έλ¬λ μ΄λ² λ°©μ‘ν΅μ λ² κ°μ μ λ¨μν μΌλΆ μ‘°νμ λ°κΎΈλ λ°μ κ·ΈμΉμ§λ κ²μ΄ μλλΌ νλ²μ μ‘°νμ λ°κΎΈμ΄μΌ νλ€λ μ μμ λ³Ό λ λ°©μ‘ν΅μ μμ₯λΏ μλλΌ λ©μμ½ μ¬νμ ν° λ³νλ₯Ό μ΄λνλ κ²μ΄λ€. μ§μ§λΆμ§ν λ
Έλ, μλμ§, μΈμ κ°νμ λν λ
Όμ κ³Όμ κ³Ό λ¬λ¦¬ λ¨μμΌ λ΄μ μ μΉκΆμ΄ ν©μνκ³ λ²μ΄ κ°μ λλ€λ μ μμ μ΄λ‘μ μ΄λ€. μ΄κ²μ 2012λ
λμ μ΄ν λ©μμ½ κ΅λ΄ μ μΉ μν©μμ μ΄ λΆμΌ κ°νμ΄ μΌλ§λ μκΈνκ³ μ€μν μ΄μμλμ§ λ¨μ μΌλ‘ 보μ¬μ£Όλ κ²μ΄λ€
21μΈκΈ° λΌν΄μλ©λ¦¬μΉ΄ κ°ν¨λ¦κ΅νμ λΉλ©΄ λ¬Έμ
μ§λ μΈκΈ° κ°ν¨λ¦κ΅νλ μ 2μ°¨ λ°ν°μΉΈκ³΅μνλ₯Ό ν΅ν΄ ν¨μμ μ΄κ³ μλ
μ μ΄λ μμ μ μ΄λ―Έμ§λ₯Ό λ²κ³ μΈκ³μ μ κ·Ήμ μΌλ‘ λννλ μμΈλ₯Ό μ·¨ν
λ€. μ΄ κ³΅μνλ κ΅νμ νλνλ₯Ό μ μΈνλ μΌλ μ¬κ±΄μ΄λ©° κ°ν¨λ¦μ λ³ν
λ₯Ό μ리λ μ νΈνμ΄μλ€. λ μ΄μ κ΅νλ μΈμκ³Ό λ¨μ λ μ± μ μ μ μμ
λ§ λ΄λΉνλ κΈ°κ΅¬κ° λκΈΈ κ±°λΆν κ²μ΄λ€. μ΄λ° λ©μμ§μ λΆμνμ¬ μ κ·Ήμ
μΌλ‘ μΈμκ³Ό λνλ₯Ό μλν λΌν΄μλ©λ¦¬μΉ΄ κ΅νλ λ³ννλ κ°ν¨λ¦κ΅νμ
ν λͺ¨λΈμ΄ λμλ€. 1968λ
μ½λ‘¬λΉμ λ©λ°μΈ(MedellΓn)μμ μ΄λ¦° μ 2μ°¨ λΌ
ν΄μλ©λ¦¬μΉ΄ μ£Όκ΅νμλ₯Ό κ³κΈ°λ‘ μ§λ³΄μ μΈ μ±μ§μ, μ νμ, νμ λκ° μ£ΌμΆ
μ΄ λμ΄ ν΄λ°©μ ν, κΈ°μ΄κ³΅λ체 λ± λΌν΄μλ©λ¦¬μΉ΄μ νΉμμ μ§λ μ νκ³Ό κ΅
νμ λͺ¨λΈμ νμμμΌ°λ€. μ λλ€μ μ¬νμ°Έμ¬ μ΄λλ€λ νμ°λμκ³ , κ΅ν
λ λμ± μλμ μΈ λͺ¨μ΅μ 보μλ€. νμ§λ§ λμμ μ μλ μμλ μλ‘μ΄
λ¬Έμ μ νΌλμ μΌκΈ°νλ€.1959λ
μΏ λ°νλͺ
μ΄ν νμ°λλ κ²λ¦΄λΌμ΄λ, ν μ§λ¬Έμ μμ νμλ λ
λ―Όμ΄λ, λΆμν 체μ λ₯Ό λ³νμν€κ³ μ ν νμμ΄λ, κ΅°μ¬μΏ λ°ν, κ·Έ ν κ³μλλ κ²½μ μ μ μΉμκΈ°λ κ°ν¨λ¦ μ λλ€μκ² μ μΉμ¬νμ λ¬Έμ μ λν κ΄μ¬μ μ΄λ°μμΌ°λ€