J. Korean Soc. Hazard Mitig Search

CLOSE


J. Korean Soc. Hazard Mitig. > Volume 19(1); 2019 > Article
화재 검출 및 생존자 위치 파악 시스템 개발

Abstract

In our country, smoke detection equipment and heat detectors are generally employed for detecting fires. However, if certain criteria are satisfied, such detectors perform their functions even if a fire does not exist. Consequently, people are often not convinced by fire alarms and do not retreat to safety during an actual fire, which in turn worsens personal injuries and property damage. Although several fire detection algorithms exist, these algorithms have various drawbacks, such as inadequate accuracy, and firefighters face difficulty while locating rescuers. In this study, the AWS Rekognition API software tool is employed for detecting fires. In case of an actual fire, people can press an activated button in their houses. The source of a fire is determined by incorporating advanced AWS Rekognition features. Furthermore, the “Save Touch” feature can aid firefighters in easily finding rescuers.

요지

최근까지도 우리나라는 화재를 감지하기 위해 많은 곳에서 연기 감지기와 열 감지기를 사용한다. 하지만 이러한 감지기들은 일정한 조건만 맞으면 작동하기 때문에 비화재보의 우려가 발생하다 보니 감지기는 불신의 대상이 되고 있다. 실제로 화재가 발생하더라도 비화재보 때문에 사람들은 피신하지 않아 화재재난 시 대규모 인명피해 및 재산피해가 발생할 우려가 있다. 기존의 화재 검출 알고리즘이 존재하지만, 정확도를 비롯한 여러 문제가 존재해 정확한 분석이 어려운 상황이다. 또한, 화재가 발생하면 재실자의 위치를 파악하기가 쉽지 않아 인명구조에 어려움이 있다고 생각된다. 본 연구에서는 AWS Rekognition API를 기반으로 화재를 검출해내고 화재가 발생하면 건물 내 활성화 버튼을 생존자가 누름으로써 중앙관리자가 위치를 파악할 수 있도록 돕는다. 그 정보를 토대로 구조자가 생존자를 빠르게 구조하도록 돕는다. 또한, API를 응용하여 발화지점을 찾을 수 있도록 도와주는 시스템을 제시한다.

1. 서 론

우리나라는 산업화 및 도시화로 인해 인구 밀집현상이 진행 중이다. 2018년 현재 서울에는 대략 우리나라 전체인구의 1/5 인 1000만 명 가까이 거주하고 있으며 많은 사람이 서울에서 직장 생활을 하고 있다. 따라서 많은 사람을 수용하기 위해 건물은 더 높이, 아파트는 더 많이 짓는 추세가 되었다. 이로 인해 초고층 빌딩이나 아파트 화재가 발생하게 되면 더 큰 인명피해가 발생할 가능성을 간과할 수 없다. 소방청 통계에 따르면 Fig. 1과 같이 건물 화재는 매년 증가하는 추세이다.
현재 화재를 탐지하는 데 사용되는 화재감지기는 온도감지기와 연기감지기로 크게 2가지 종류로 나뉜다. 온도감지기는 다시 차동식(Fig. 2(a))과 정온식(Fig. 2(b))으로 나뉘는데 정온식 감지기는 사전에 설정된 온도에 따라 해당 온도가 되면 동작하고 차동식은 급속한 온도변화에 반응하여 동작한다. 연기 감지기(Fig. 2(c))는 빛이 통과하는 정도의 변화를 감지하는 방식으로 작동한다.
한국소방산업기술원 시험인증부에 따르면 ‘우리나라 화재감지기 대부분은 30~40년 전 수준에서 탈피하지 못하고 있다’라고 한다. 그 설명에 따르면 현재 국내에서 주로 생산되는 감지기는 열 감지인 차동식과 정온식 감지기, 연기감지기인 광전식 감지기 등이 전체 감지기의 95% 이상을 차지하고 있다. 이 중 400만 개(약 65%)에 이르는 열 감지기가 차동식 스포트형 감지기이며 연기감지기의 경우 연간 100만여 개(17%)가 국내 건축물에서 적용되고 있는 것으로 나타났다. 하지만 이 감지기들은 일정한 조건만 맞으면 작동하기 때문에 비화재보의 우려가 커 감지기를 불신의 대상이 되고 있다. 2014년에 방송된 KBS 안전점검에서는 실제로 화재 상황을 만들어 연기 감지기와 열 감지기의 화재 탐지 시간을 실험 수행하였으며, 그 결과는 Table 1과 같다.
화재의 골든타임은 5분으로 알려져 있다. 동아뉴스의 기사에 따르면 서울시에서 화재 발생 시 소방대원의 평균 출동, 도착 소요시간은 3분 25초라는 통계 자료가 있다. 만약 Table 1과 같은 탐지 시간에 소방대원의 출동 시간이 더해지면 화재의 골든타임인 5분을 훨씬 넘어서 대단히 큰 피해가 생길 것으로 예상된다. 따라서 화재경보기의 탐지시간을 1분 이하로 단축시키면 소방대원이 골든타임 안에 화재 현장에 도착해 화재를 진압할 수 있다고 생각된다. 소방대원은 인명구조를 위해 건물 화재로부터 먼저 대피한 사람에게 대피하지 못한 사람의 인원과 최종 위치를 듣고 인명구조를 실시한다. 하지만 효율적인 인명구조를 하기 위해서는 가장 최근의 생존자 위치 파악이 수반되어야 한다. 합리적으로 생존자를 구출하기 위해서는 생존자의 위치 파악 시스템 수립이 필요한 실정이다.
본 연구에서는 AWS Rekognition API를 응용해 기존의 화재 탐지기와 화재검출 알고리즘 보다 더 빠르고 정확하게 화재를 검출해 내는 것을 목표로 한다. 정확히 화재라고 판단이 되면 활성화 버튼 시스템인 ‘Save Touch’로 위치를 파악하는 방식에 관해 연구한다. 버튼을 누르면 CCTV 장치의 유무와 관계없이 구조자의 위치 정보를 파악할 수 있다. 더 나아가 자동신고, 그리고 최초 발화 지점 정보까지 중앙관리자에게 안내해주는 화재관리 시스템 연구를 목표로 한다.
본 연구는 총 5장으로 이루어지며, 다음과 같다. 제 1장 서론에서는 연구의 배경 및 목적, 연구 방법 등을 기술한다. 제 2장은 기존의 화재검출 알고리즘 관련 연구인 색상을 이용한 화재감지 방법과 CNN 방법에 대해 정리한다. 제 3장에서는 AWS Rekognition API를 응용한 기술의 방법에 관해 서술한다. 4장에서는 Save Touch를 추가하여 구조자의 위치를 파악하고 효율적인 구조를 돕도록 한다. 마지막으로 제5장은 결론 부분으로 전체적인 연구결과에 대한 요약과 결론을 기술한다.

2. 화재 알고리즘 관련 연구

2.1 색상 값을 이용한 화재감지 방법

기존 화재를 검출하는 알고리즘 중 대표적인 것으로 RGB 및 YCbCr 컬러 모델을 사용하는 방법이 있다(Piao et al., 2010). OpenCV로 촬영된 이미지는 RGB 형태로 저장된다. 휘도와 색차를 분리하기 위해 Eq. (1)을 이용하여 RGB 컬러 공간을 YCbCr 컬러 공간으로 변환 시키고, Eq. (2)를 정의하여 변화하는 조도에서 발생하는 유해한 효과들을 제거하여 화염 화소를 분리한다(Cho and Bae, 2014; Oh, 2015).
(1)
(YCbCr)=(0.2570.5040.098-0.148-0.2910.4390.439-0.368-0.071)(RGB)+(16128128)
(2)
F(x,y)={1,Y>Ymean,Cb<Cbmean,Cr>mean,|Cr-Cb|r0,otherwise
여기서 Y는 휘도를 나타내며, Cb와 Cr은 색차 값을, r은 Receiver Operating Characteristics (ROC)의 분석으로 결정되는 상수이며, F(x,y)가 1인 화소는 화염으로 정의된다. 이 알고리즘을 사용하면 화재 발생 시 검출 속도는 빠르지만, 화염과 비슷한 컬러의 물체가 있으면 오검출 비율이 상당히 높다. 그러므로 색상을 분석하는 알고리즘만으로 화재를 검출하기 어렵고, 더욱이 카메라의 조도나 주변 환경에 영향을 받게 된다면 일반적인 화재 검출 알고리즘으로는 적합하지 않을 수도 있다.

2.2 딥러닝 방식(Convolutional Neural Network, CNN)

기존의 색상을 이용한 화재감지 방법의 문제점을 보완하기 위해 딥러닝 기술이 사용된다. 딥러닝은 여러 비선형 변환 기법을 이용하여 학습 데이터에 대한 높은 수준의 추상화를 보여준다. 이를 통해 데이터의 주요 특징들을 추출한 다음, 데이터 군집 및 분류를 수행하는 기계학습의 일종으로 다음과 같은 화재 검출 Flow (Fig. 3)와 CNN (Fig. 4)과 같은 방법을 사용한다. CNN은 전통적인 Neural Network 앞에 Convolutional Layer를 붙인 모양이 되는데 이 계층을 통해 입력받은 이미지에 대한 특징을 추출하게 되고 추출된 특징을 기반으로 기존의 Neural Network를 이용하여 분류해내는 기술이다. 실제로 국제 영상 인식 대회에서 2012년 CNN 방식을 이용한 영상 처리 기술이 다른 영상 처리 기술들을 크게 앞서며 딥러닝이 효율적인 방식이라는 것을 다시 한 번 입증한 바 있다(Kang, Lee and Lee, 2009; Kang, Lee and Park, 2009; Kim and Kim, 2016).
CNN 방식을 이용하면 기존의 색상만을 이용하는 방식보다 화재 환경이나 물체에 대해 영향을 덜 받으며 높은 검출률을 기대해 볼 수 있다. 그러나 많은 화염 영상을 학습시켜야 하는 부담이 존재한다. 이는 학습 데이터 확보가 어렵다는 딥러닝의 고질적인 문제점 중 하나이다. 따라서 본 연구에서는 딥러닝을 기반으로 하고 별도 데이터 학습에 대한 부담을 덜어주는 아마존에서 개발한 Amazon Rekognition을 이용한 화재 검출에 관해 연구한다.

3. 화재 검출

3.1 Amazon Rekognition

Amazon 사에서 2017년 Amazon Rekognition 이라는 기술을 소개한 바 있다. 이 API 에서는 사용자가 이미지 또는 비디오를 제공만 하면 아마존에서는 객체, 사람, 텍스트, 장면 및 동작을 식별하고 결과 값을 사용자에게 리턴 해준다. 또한, 이미 기계적 학습이 되어 있으므로 비전공자 혹은 기계 학습 전문 지식이 없는 전공인 들도 쉽게 다가갈 수 있다는 큰 장점이 있다. Fig. 5는 동영상을 업로드한 뒤에 화재가 발생한 시점을 AWS Rekognition API를 통해 알 수 있다.
Fig. 5의 노란색 바는 저 시점에 API 가 화재라고 판단했다는 뜻이고 9초(Fig. 6) 정도 걸린 것으로 확인할 수 있다. API 가 화재라고 판단을 하면 중앙 관리실의 메인 CCTV 화면에 화재 지역을 화면에 자동으로 뛰어준 뒤에 관리자가 육안으로 한 번 더 확인할 수 있게 도와주어 오차율을 현저히 줄 일 수 있다고 예상된다. 만약 관리자가 부재중이라면 일정 시간이 지난 뒤에 자동으로 119에 신고해주도록 한다.
Fig. 7은 관리자가 중앙 관리실에 있지 않더라도 실시간으로 Application을 통해 화재가 발생하면 관리자 Application에서 화재구역을 확인할 수 있으며 관리자의 판단하에 화재라고 인지되면 119에 신고 할 수 있다.
9초라는 시간은 기존의 화재 탐지기인 연기감지기(2:31초), 열감지기(4:11초) 와 비교 한다면 상대적으로 빠른 시점이라는 것을 알 수 있다. 이 탐지 속도라면 충분히 소방대원들이 골든타임 안에 도착해 화재를 진압할 수 있다고 예상된다.

3.2 화재 원인 규명

국립과학수사연구원의 화재연구실 연구원에 의하면 화재 원인 규명을 할 때 수사기관에 CCTV 자료를 의뢰하고 그것을 전부 확인하는 방식으로 작업이 이루어진다. 하지만 모든 CCTV 영상을 확인하는 방법은 오랜 시간과 비용이 든다. Fig. 6과 같이 AWS Rekognition API를 사용하여 화재라고 판단되는 시점이 생기면 그 결과 값을 Fig. 7과 같이 관리자에게 전달해준다. 관리자가 Application을 통해 보게 되는 영상 속의 장소가 발화지점일 가능성을 예측할 수 있다. 따라서 화재 원인 규명을 할 때 CCTV 영상자료와 함께 그 장소를 알려 준다면 더 적은 비용과 빠른 시간으로 원인 규명을 할 수 있다고 생각 된다.

4. 구조 인원 및 위치 정보

AWS Rekognition에서 Public Safety를 위해 Video Analysis를 제공한다. 현재 상황을 Fig. 8이라 가정한다. 이런 상황에서 화재가 발생한다면 화재의 진압도 중요하지만 가장 중요한 것은 인명구조가 최우선순위가 되어야 한다. 소방대원들은 건물 화재의 경우 화재가 난 층부터 시작해서 옥상으로 올라가면서 화재를 진압한다. 인명구조 절차대로 하게 되면 구조가 늦어져 사상자를 발생시킬 가능성이 있으므로 구조자의 위치 파악이 가장 중요하다고 생각된다. Fig. 9를 보면 각 사람이 어느 위치로 이동했는지를 파악할 수 있고 화재가 발생해 CCTV 장치가 화재로 인해 소실되기 전까지 사람들의 최종 위치를 알 수 있어 인명 구조를 더 빠르게 진행할 수 있다고 생각된다.
화재가 발생하게 되면 전기가 끊기게 되고 비상등과 같은 특별한 장비에는 전기가 들어가게 된다. 이 점을 이용하여 Fig. 10에 스위치를 설치하는 Save Touch 시스템에 관해 연구한다.
Save Touch의 시스템 Flow는 Fig. 11과 같다
AWS Rekognition API가 화재를 감지하게 되면 Save Touch의 버튼의 색이 바뀌는 동시에 활성화된다. 생존자가 버튼을 누르면 구조자의 위치정보가 중앙 관리자에게 전달된다. 중앙 관지라는 전달받은 정보를 소방대원에게 안내해 빠른 인명구조를 돕는 시스템이다(Kang and Lee, 2016; Kim et al., 2016). Choi et al. (2014)에 따르면 연기가 주입된 후로부터 2-7분 후 실험을 해 본 결과 녹색 사인보다 노란색 사인이 더욱 명확하게 보이기 때문에 버튼의 색은 노란색으로 한다.
비상구의 전력을 이용해 비상구와 MCU (Fig. 12(a))를 연결한다. 그리고 MCU에 ID Selector (Fig. 12(b))와 RF Module (Fig. 12(c)) 모듈을 설치한다.
Fig. 12의 부품들을 이용하여 Fig. 13과 같이 설계를 한다. MCU에 연결된 버튼을 누르면 ID Selector에 의해 지정된 코드가 중앙 관리자에게 전송된다. 그 코드에 해당하는 위치를 표시하고 그 곳의 CCTV 화면을 연동할 수 있다. Fig. 14의 빨간색 위치가 Save Touch가 눌러진 위치이며 눌러진 시간과 함께 나타난다. 사람의 육안으로만 CCTV장치를 확인하는 기존의 방법보다 AWS Rekognition API를 통해 기존의 방법보다 더 빠르게 화재 검출을 할 수 있고, Save Touch를 이용하여 구조자의 위치를 빠르게 안내하면서 CCTV 장치가 소실되거나 없는 곳이라도 생존자를 파악할 수 있게 해준다.

5. 결 론

본 연구에서는 학습에 대한 부담에서 비교적 자유로운 딥러닝 기반 알고리즘 AWS Rekognition API를 응용한 기술에 대해 알아보았다. 이것을 이용하여 화재를 검출한 뒤에 구조자의 위치를 파악할 수 있는 Save Touch를 활성화 시키는 것에 대해 논의 하였으며 기존의 방식보다 차별화된 화재 검출과 인명구조 방법을 제시하고자 하였다. 본 연구를 통해 얻은 결론은 다음과 같다.
(1) 기존의 연기감지기(2:31초)와 열 감지기(4:11초)보다 상대적으로 빠른 시간 내(평균 20초이내)에 화재를 감지했다. AWS Rekognition API를 사용함으로 인해 소방대원들이 골든타임을 지킬 수 있어 화재에 빠른 대처를 할 수 있을 것으로 판단된다. 또한 Save Touch를 사용해 가장 최근의 재실자의 위치까지 소방대원에게 알려 줄 수 있어 인명구조에 빠른 도움을 줄 수 있을 것으로 판단된다.
(2) 국립과학수사연구원에 따르면 화재 원인을 규명하기 위해 발화지점을 찾는 것이 중요하다. 기존의 방법인 사람이 육안으로 CCTV 영상을 전부 확인 하는 것보다 첫 화재라고 판단된 지점을 저장한 뒤에 CCTV 자료와 함께 넘겨주는 것이 기존의 방식보다 더 빠르고 정확할 것으로 판단된다.
(3) 본 연구를 위해 딥러닝 기술중 하나인 CNN을 차용하여 기존에 존재하지 않던 시스템을 구축했다. CNN을 구현하기 위해 AWS에서 제공하는 화재검출 시스템을 활용했다. 또한 RFID를 사용하여 구축한 IoT 제품을 이용해 시스템 구축에 기여할 것으로 판단된다.

Fig. 1
Numbers of Fire Occurrences Between 2013~2017
kosham-19-1-225f1.jpg
Fig. 2
Types of Fire Detection Equipment
kosham-19-1-225f2.jpg
Fig. 3
Fire Detection Flow
kosham-19-1-225f3.jpg
Fig. 4
CNN Algorithm
kosham-19-1-225f4.jpg
Fig. 5
Detect the Fire Using the AWS Rekognition
kosham-19-1-225f5.jpg
Fig. 6
The Time When API Detects the Fire
kosham-19-1-225f6.jpg
Fig. 7
Application of Fire Detector
kosham-19-1-225f7.jpg
Fig. 8
Daily Life
kosham-19-1-225f8.jpg
Fig. 9
People are Tracked by API
kosham-19-1-225f9.jpg
Fig. 10
Exit Sign
kosham-19-1-225f10.jpg
Fig. 11
Flow of Save Touch
kosham-19-1-225f11.jpg
Fig. 12
Electronic Components for Save Touch
kosham-19-1-225f12.jpg
Fig. 13
Schematic of Save Touch
kosham-19-1-225f13.jpg
Fig. 14
Location Point of Rescuers
kosham-19-1-225f14.jpg
Table 1
Comparison of Fire Detection, Time of Temperature, Fire Detector and Optical Smoke Sensor
Temperature Fire Detector Optical Smoke Sensor
Detecting Time 04:11 02:31
Temperature 51.2 °C 79.2 °C

References

Cho, KL, and Bae, SH (2014) A fire detection using color and movement of flames. Journal of Korea Multimedia Society, Vol. 17, No. 1, pp. 8-14.
crossref pdf
Choi, JS, Park, DR, and Jeong, KH (2014) A Study on safety design colors of evacuation guidance sign in case of fire. Journal of Korea Society of Color Studies, Vol. 28, No. 3, pp. 39-47.

Kang, BS, and Lee, KH (2016) Fire alarm solutions through the convergence of image processing technology and M2M. Journal of the Korea Convergence Society, Vol. 7, No. 1, pp. 37-42.
crossref
Kang, SW, Lee, SY, and Lee, TH (2009). Learning algorithm for flame pattern recognition. Proceedings of 2009 Annual Conference. The Korea Contents Society, p 521-525.

Kang, SW, Lee, SY, and Park, JW (2009). Fire image processing using OpenCV. Proceedings of 2009 Annual Conference. The Korea Contents Society; pp. 79-82.

Kim, JH, Lee, TH, Cho, SH, and Cho, JD (2016) Proposal of fire evacuation routes system using IoT. Extended Abstracts of HCI Korea 2016, pp. 413-414.

Kim, YJ, and Kim, EG (2016) Image based fire detection using convolutional neural network. Journal of the Korea Institute of Information and Communication Engineering, Vol. 20, No. 9, pp. 1649-1656.
crossref pdf
Oh, TG (2015). A study on vision-based flame detection system using OpenCV. Master’s thesis. University of Seoul.

Piao, FJ, Ryu, JG, Moon, KS, and Kim, JN (2010). A YCbCr color model for fire detection based on fire movement. Proceedings of 2010 Fall Conference. Korea Multimedia Society; pp. 431-433.



ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
AUTHOR INFORMATION
Editorial Office
307 Main Bldg., The Korea Science Technology Center, 22 Teheran-ro 7-gil(635-4 Yeoksam-dong), Gangnam-gu, Seoul 06130, Korea
Tel: +82-2-567-6311    Fax: +82-2-567-6313    E-mail: master@kosham.or.kr                

Copyright © 2019 by The Korean Society of Hazard Mitigation. All rights reserved.

Developed in M2community

Close layer
prev next