채용공고 올리기

전건우님을 응원해보세요!

지금 만족하고 있어요
효율적
직관적
커뮤니케이션
자기 주도적

미리보기

기본 정보

이름
전건우
직업
데이터 사이언티스트, 머신러닝 엔지니어
이메일
wjsrjsdn12@gmail.com
간단 소개

어릴 적부터 막연하게 컴퓨터와 관련된 직업을 꿈꾸던 호기심, 반복적이고 번거로운 작업을 싫어하는 게을렀던 성격과 누군가에게 번뜩이는 아이디어나 다른 사람들이 어렵다고 생각하는 것들을 쉽게 이해할 수 있게 도움을 줬을 때 나오는 도파민은 저를 자연스럽게 개발자의 길로 인도했습니다. 제가 좋아하는 컴퓨터 공학, 데이터 분석을 통해 더 좋고 편리한 서비스를 제공해보고 싶다는 목표가 있습니다.

기술 스택

기술 스택

Python, MQTT, Kafka, grafana, Prometheus, C#, PyQT, PyTorch, Tensorflow

교육

소속/기관명

공주대학교

종류 | 전공

대학원(석사) | 컴퓨터공학과

재학 기간 | 재학 상태

2019.03. ~ 2021.02. | 졸업

소속/기관명

공주대학교

종류 | 전공

대학교(학사) | 컴퓨터공학부 소프트웨어전공

재학 기간 | 재학 상태

2015.03. ~ 2019.02. | 졸업

경력

회사명

안진회계법인

직급 | 부서 | 근무 유형

컨설턴트 | 리스크자문본부 | 재직 중

근무 기간

2024.02. ~ 재직 중 (1년 2개월)

담당 업무

BNK경남은행 준법지원시스템 재구축 컨설팅 프로젝트 참여 (2024.03 ~ 2024.07)

  • 금융권 상시감시시스템은 거래 트랜젝션, 상품가입 정보를 기반으로 고객의 금융사고 이상 거래, 임직원의 횡령 정황을 모니터링하는 시스템이며 원활한 운영을 위해서는 상시감시 담당자들이 금융사고에 연관된 거래를 적절하게 검토할 수 있도록 효과적인 감시항목 채택 및 임계치 설정이 필요합니다.

  • Oracle Database 환경에서 3년간의 거래 및 상품가입 정보인 약 30억 Row의 데이터에 대해 약 40개의 기존 감시항목에 의해 추출된 데이터와 실제 금융사고 연관 데이터를 기반으로 분석하여 일 수십개에서 수백개 단위로 감시항목에 의해 추출되나 실제 금융사고와 연관성이 적은 10여개의 감시 항목에서 불필요한 조건 제거와 적정 임계치 설정을 통해 상시감시 모니터링 프로세스를 효율화하였습니다.

  • 프로젝트를 함께 수행한 금융권 내부감사 전문가 동료와 협업하여 최신 금융사고 트렌드를 반영한 복잡한 거래 및 상품정보에 관련된 조건을 SQL로 해석하여 고객사에서 10여개의 신규 감시항목을 운영할 수 있도록 지원하였습니다.

  • AI기반 이상거래 탐지를 위해 합류한 협업사의 개발자들을 리딩하여 지도/비지도 학습 기반 이상 거래 탐지 방향성 논의 및 AI, 개발 관련 지식이 없는 은행 담당자 사이에서의 소통을 지원하였습니다.

회사명

주식회사 반프

직급 | 부서 | 근무 유형

매니저 | R&D

근무 기간

2022.11. ~ 2023.09. (11개월)

담당 업무

타이어 데이터 수집 시스템 기획 및 구축 (2022.11 ~ 2023.02)

  • 초기 합류 이후 타이어 데이터를 TSV 파일 형태로 차량 탑재 PC에 저장하는 C# 기반의 윈도우 프로그램까지는 개발이 되어있었으나, 데이터를 저장하기 위한 시스템이나 측정 상태를 모니터링하는 환경이 존재하지 않아, 반복적인 원격지에서의 주행 시험 시 수집된 데이터의 품질 점검이 어렵고 매번 시험을 통해 수집된 데이터를 물리적으로 직접 전달받아야만 데이터를 분석할 수 있는 문제가 있었습니다.

  • 이를 해결하기 위해, 차량 탑재 PC에서 동작하는 Python 기반 데이터 송신 소프트웨어, AWS S3 및 Lambda를 활용한 Raw 시험 데이터, 전처리된 DataFrame 데이터 파일 저장, MQTT(AWS EC2 환경에 Open Source 직접 구축)와 Apache Kafka(Confluent 서버리스 Kafka 서비스 사용)를 결합한 실시간 데이터 송신 시스템 및 Grafana를 활용하여 실시간 데이터 모니터링 대시보드로 구성된 타이어 데이터 수집 시스템을 기획하고 구축하였습니다.

  • 이를 통해 다양한 주행 환경에서의 실험 및 분석 프로세스를 개선하여 개선 이전 대비 시간효율적인 테스트 수행을 지원하였습니다.

데이터 분석 및 도로 노면 분류 모델 개발 (2023.02 ~ 2023.05)

  • 타이어 내부에 부착된 3축 가속도 데이터 분석(시계열 분석, 신호처리)하여 타이어 회전속도, 좌/우 회전 방향, 캠버각(지면과 타이어 사이 기울어진 각도), 타이어 내부 센서 부착 위치가 지면에 닿아있는 구간의 신호를 추출하는 알고리즘을 구현하였습니다.

  • 특정 시간 단위의 3축 가속도 신호를 RGB 이미지로 변환하는 알고리즘과, 해당 이미지를 입력으로 도로 노면의 미끄러운 정도인 마찰계수를 5단계로 분류할 수 있는 Convolutional Neural Network를 구현하였습니다.

  • 이를 통해 분류 모델의 정확도 성능 측정 지표인 AUC Score가 0.91인 높은 정확도로 도로 노면의 미끄러운 정도를 분류할 수 있는 Prototype 모델을 적용할 수 있었습니다.

실시간 도로노면 분류 Python GUI Software 개발 (2023.05 ~ 2023.09)

  • 데이터 분석 내용에 대해 전사 Meeting을 통해 가능성과 방향성은 공유할 수 있었으나, 모든 구성원이 데이터 분석 기술을 보유하고 있지는 않기 때문에, 차량을 주행하면서 분석 내용에 대해 실시간으로 시각적으로 보여지면 다른 구성원들의 관점에서 떠오를 수 있는 아이디어가 있을 것이라고 판단하였고, 실제 분석에 의해 개발된 모델을 실시간으로 적용하여 차량이 운행된 도로의 상황을 실시간으로 업데이트 할 수 있는지 확인이 필요한 상황이었습니다.

  • 이를 달성하기 위해 데이터 분석 및 도로 노면 분류 모델 개발 과정에서 습득한 알고리즘을 주행 차량 탑재 PC에서 실시간으로 적용하여 대시보드 서버(Grafana)로 송신할 수 있는 Python Software를 개발하였습니다.

  • 이를 통해 모니터링 대시보드에서 실시간으로 주행중인 차량의 위치와 해당 시점 도로 노면의 미끄러운 정도를 어디서든 확인할 수 있도록 지원하였습니다.

회사명

데이터위버

직급 | 부서 | 근무 유형

머신러닝 엔지니어 | 딥러닝사업부

근무 기간

2021.02. ~ 2022.07. (1년 6개월)

담당 업무

KB국민카드 가맹점 매출 데이터 분석 프로젝트 PoC 수행 (2021.03 ~ 2021.04)

  • 고객사의 요식업 가맹점을 대상으로 리뷰 데이터 기반의 분석 결과 대시보드를 제공하여 가맹점의 강점, 개선점을 제공할 수 있는 데이터 분석 솔루션을 PoC로 제공하였습니다.

  • Python을 사용하여 네이버, 구글의 고객 리뷰 스크래핑을 자동화하였습니다.

  • 스크래핑한 리뷰 텍스트를 분석하기 위한 전처리 작업으로 형태소 분석, 띄어쓰기 및 맞춤법 처리, 불용어 제거를 수행하였습니다.

    - 전처리된 리뷰 데이터와 별점 기반의 긍/부정 레이블을 활용하여 각 가맹점 별 전체 리뷰 중 주요 키워드 추출 및 리뷰 긍/부정 분류 모델을 Fine-tuning 하였습니다.

  • 분석된 내용들을 토대로 가맹점 별 주요 지표를 확인할 수 있는 대시보드를 오픈소스인 Apache Superset 환경에 구성하였습니다.

동원시스템즈 AI 비전검사 시스템 구축 (2021.08 ~ 2021.12)

  • NVIDIA Jetson과 이미지 분류 모델을 활용하여 포장재 톰슨 공정의 이상 제품을 탐지하고 설비와의 연동을 통해 잘못된 공정을 정지할 수 있는 임베디드 디바이스를 개발 및 납품하였습니다.

  • 명절, 신규제품 등 새로운 제품의 이상 또한 탐지할 수 있도록 비개발자가 직접 이미지 추가 학습을 수행할 수 있도록 메뉴얼을 작성하여 제공하였습니다.

  • 10종류의 제품과 4가지의 이상 케이스 총 14개의 Class로 다중 분류 시 98% 정확도로 이상 제품과 정상 제품을 구분할 수 있었습니다.

CJ프레시웨이 빅데이터 플랫폼 구축 프로젝트 참여 (2022.06 ~ 2022.07)

  • 서로 다른 DB에 분리되어 저장되어 있는 데이터 소스를 통합하기 위한 빅데이터 플랫폼 구축 프로젝트에 데이터 분석 환경 및 시각화 플랫폼 구축 업무로 참여하였습니다.

  • 오픈소스 기반의 데이터 분석 및 시각화 환경 구축, 매일 추가되는 방대한 양의 데이터에 대한 분석 프로세스 및 모델 업데이트를 관리할 수 있는 도구를 필요로 했습니다.

  • 이를 위해, 코딩 없이 사용하고 대부분의 SQL DB, 해당 프로젝트에서 도입하는 Snowflake 및 AWS Glue와도 Athena 쿼리를 통해 연동 가능한 오픈소스 시각화 플랫폼인 Apache Superset을 AWS EC2 환경에 구축하고 AWS IAM 계정의 접근 권한을 연동하였습니다.

  • 데이터 분석 프로세스 및 모델 업데이트 관리 지원을 위해 기존 고객사의 데이터 분석가들이 Python 코드를 기반으로 워크플로우를 관리할 수 있는 Apache Airflow 환경을 AWS EC2 환경에 구축하였습니다.

  • 다중 사용자들에게 독립적인 Python 분석 환경 제공을 위해 JupyterHub를 AWS EC2 환경에 구축하였습니다.

포트폴리오

URL

link

포트폴리오

URL 링크

자격증

자격증명

AWS CLF-01

점수 | 발급기관

Amazon Web Service

취득연월

2023.05.

댓글