• AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
  • AI글쓰기 2.1 업데이트
PARTNER
검증된 파트너 제휴사 자료

실시간 스트림 데이터를 위한 새로운 익명화 알고리즘 제안 (Proposal of a New Anonymization)

한국학술지에서 제공하는 국내 최고 수준의 학술 데이터베이스를 통해 다양한 논문과 학술지 정보를 만나보세요.
11 페이지
기타파일
최초등록일 2025.06.01 최종저작일 2023.12
11P 미리보기
실시간 스트림 데이터를 위한 새로운 익명화 알고리즘 제안
  • 미리보기

    서지정보

    · 발행기관 : 사단법인 한국융합기술연구학회
    · 수록지 정보 : 아시아태평양융합연구교류논문지 / 9권 / 12호 / 21 ~ 31페이지
    · 저자명 : 홍성현, 이규성, 김동례, 김순석

    초록

    실시간 스트림 데이터라 함은 실시간 범죄신고정보, 온라인 판매거래정보, 병원 내 환자 모니터링 장치 등 각종 PoC(Point of Care, 현장 진료형 의료장비)들로부터 실시간으로 수집되는 개인생체신호 등의 데이터를 말한다. 우리는 이러한 실시간 수집 스트림 데이터에서의 프라이버시 보호를 위한 새로운 익명처리 알고리즘을 제안하고자 한다. 제안 알고리즘은 기존 Ugur와 Osman이 제안한 UBDSA 알고리즘보다 크게 4가지 측면에서 성능을 개선하였다. 첫째, 일반화 트리를 형성한 다음 정보손실을 미리 측정할 수 있도록 사전 수행과정(Precompute)을 두었다. 둘째, 각 트랜잭션 데이터(레코드)가 입력될 때마다 슬라이싱을 통하여 준식별자 컬럼들과 아닌 컬럼들을 분리하여 각각 저장하였으며, 아울러 게시전 조합(combine)을 위하여 분리시 분리된 각 슬라이스에 일련번호를 붙이도록 하였다. 즉, 각 트랜잭션 별로 클러스터링시 준식별자 컬럼들만 저장하여 일반화함으로써 저장공간을 줄이고 계산 성능을 개선하였으며, 특히 이것은 컬럼수가 많거나 혹은 대용량 데이터에 대해 보다 효율적이다. 셋째, 클러스터 할당(AssignCluster) 단계에서 성능을 아래와 같이 개선하였다. 먼저 지연 임계값(입력 후 게시될때 까지의 최대 허용 가능 트랜잭션 레코드 수)이하 초기 클러스터 할당 과정에서부터 기존 알고리즘과 달리 각각 별도의 클러스터에 배정하지 않고 정보손실을 고려하여 클러스터링을 수행하였다. 끝으로 일반화 및 게시(Publish 단계)에서 성능을 개선하였다. 기존과 달리 클러스터 내 튜플의수가 2k 이상인 클러스터에 대해 분할 과정을 미수행하며 기존 주장인 데이터 품질 개선과는 달리 굳이 분할을 하지 않더라도 그 자체로도 데이터 품질이 좋을 수도 있으며, 안전성이 보다 높고 과정을 수행하지 않음으로 인해 성능도 향상된다. 또한 기존 UBDSA 알고리즘과 달리 클러스터 내 튜플의수가 k보다 적은 경우 이동 가능한 타 클러스터를 탐색 후 가능 클러스터를 찾아 이를 배정하는 과정에서 랜덤 배정이 아닌 최소거리 기반 배정을 수행하였다. 이는 기존 주장인 정보유출로 인한 반대 공격을 피하는 것과 달리 최소 k값이 보장될 경우 유용성 차원에서 최소거리인 클러스터로 배정이 타당하다. 그리고 앞서 클러스터 내 튜플의 수가 k보다 적은 경우 이동 가능한 타 클러스터를 탐색 후 가능 클러스터를 못찾았거나 혹은 익명화되지않은 클러스터 내 튜플수가 중앙값 클러스터 크기보다 작은 경우 기존 삭제 혹은 최상위 일반화 대신 제안 알고리즘은 삭제를 수행함으로서 수행 시간을 줄일 수 있다.

    영어초록

    Real-time stream data refers to data which collected in real time such as personal vital signs information collected from various PoCs (Point of Care, point-of-care medical equipment) in hospitals, real-time crime report information, and online sales transaction. We propose a new anonymization algorithm for privacy protection in these real-time collected stream data. The proposed algorithm significantly improved performance in four aspects compared to the UBDSA algorithm proposed by Ugur and Osman. First, after forming a generalization tree, precompute was performed to measure information loss in advance. Second, whenever each transaction data (record) is entered, quasi-identifier columns and non-identifier columns are separated and stored through slicing, and serial numbers are attached to each slice separated at the time of separation for combine before publishing, That is, when clustering for each transaction, only quasi-identifier columns are stored and generalized to reduce storage space and improve calculation performance. In particular, it is more efficient for large numbers of columns or large-capacity data. Third, the performance in the cluster assignment (AssignCluster) step was improved as follows. First, from the initial cluster assignment process below the delay threshold (the maximum allowable number of transaction records from input to publishing), clustering was performed in consideration of information loss, rather than assigning to separate clusters, unlike existing algorithms. Finally, performance was improved in generalization and publishing (Publish stage). First, after forming a generalization tree, precompute was performed to measure information loss in advance. Second, whenever each transaction data (record) is entered, quasi-identifier columns and non-identifier columns are separated and stored through slicing, and serial numbers are attached to each slice separated at the time of separation for combine before publishing, That is, when clustering for each transaction, only quasi-identifier columns are stored and generalized to reduce storage space and improve calculation performance. In particular, it is more efficient for large numbers of columns or large-capacity data. Third, the performance in the cluster assignment (AssignCluster) step was improved as follows. First, from the initial cluster assignment process below the delay threshold (the maximum allowable number of transaction records from input to publishing), clustering was performed in consideration of information loss, rather than assigning to separate clusters, unlike existing UBDSA algorithm. Finally, performance was improved in generalization and publishing (Publish stage). The partitioning process is not performed for clusters with more than 2k tuples in the cluster, and unlike the existing data quality improvement claims, data quality can be good without partitioning and safety is higher. It improves performance by not running the process. If the number of tuples in a cluster is less than k, after searching for other movable clusters, in the process of searching and assigning, possible clusters are found and assigned based on the minimum distance rather than random assignment. Contrary to the previous argument, if the minimum value of k is guaranteed to avoid counterattack due to information leakage, it is reasonable to assign it to the cluster with the minimum distance in terms of usefulness. And if the number of tuples in a cluster is less than k previously, if no possible cluster is found after searching for other movable clusters, or if the number of tuples in a non-anonymized cluster is smaller than the medium-sized cluster, then we can reduce execution time because we choose only deletion rather than existing generalization of the top-level or deletion.

    참고자료

    · 없음
  • 자주묻는질문의 답변을 확인해 주세요

    해피캠퍼스 FAQ 더보기

    꼭 알아주세요

    • 자료의 정보 및 내용의 진실성에 대하여 해피캠퍼스는 보증하지 않으며, 해당 정보 및 게시물 저작권과 기타 법적 책임은 자료 등록자에게 있습니다.
      자료 및 게시물 내용의 불법적 이용, 무단 전재∙배포는 금지되어 있습니다.
      저작권침해, 명예훼손 등 분쟁 요소 발견 시 고객센터의 저작권침해 신고센터를 이용해 주시기 바랍니다.
    • 해피캠퍼스는 구매자와 판매자 모두가 만족하는 서비스가 되도록 노력하고 있으며, 아래의 4가지 자료환불 조건을 꼭 확인해주시기 바랍니다.
      파일오류 중복자료 저작권 없음 설명과 실제 내용 불일치
      파일의 다운로드가 제대로 되지 않거나 파일형식에 맞는 프로그램으로 정상 작동하지 않는 경우 다른 자료와 70% 이상 내용이 일치하는 경우 (중복임을 확인할 수 있는 근거 필요함) 인터넷의 다른 사이트, 연구기관, 학교, 서적 등의 자료를 도용한 경우 자료의 설명과 실제 자료의 내용이 일치하지 않는 경우

“아시아태평양융합연구교류논문지”의 다른 논문도 확인해 보세요!

문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2025년 09월 04일 목요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
5:36 오전