Journal List > J Korean Diabetes > v.21(3) > 1145447

빅데이터, 인공지능시대의 의료윤리

Abstract

When incorporating artificial intelligence (AI) based on medical big data into the clinical and research settings, it is important to consider the associated ethical philosophy in addition to medical behavior. Simply improving the processing speed and increasing the amount of data will not suffice. Instead, it is necessary to continuously provide a direction for AI progress in medical algorithms that are required in order to make use of medical big data. To integrate AI with healthcare research and medical practice, it is essential that AI algorithms are reviewed by experienced medical staff. Additionally, the question regarding which levels of data can or cannot be trusted by medical staff needs to be answered. AI algorithms are best suited to provide assistance (decision-supporting) during the decision-making process. Hence, if more AI algorithms are implemented through such a series of processes, skilled medical personnel can play large roles, and their roles can be subcategorized. Furthermore, based on the medical value of AI, health care providers should have a role in determining the reasonableness and suitability of AI algorithms.

서론

빅데이터(big data) 및 이를 활용한 인공지능(artificial intelligence)은 의료계에서 최근 가장 관심을 받는 분야 중 하나이다. 빅데이터를 활용한 인공지능에 관한 연구들이 이미 다양하게 발표되고 있으며[1,2], 이를 임상에 적용하기 위한 다양한 시도들이 이루어지고 있다[3,4]. 빅데이터와 인공지능이 의료계 패러다임 자체를 바꿀 것이라는 기대가 크지만, 실제 의료 현장에서 적용되기에는 아직 무리가 있다는 이야기도 나온다. 의료 행위는 과학적이고 논리적인 사고로만 결정되는 것이 아니라 사회 문화적 현상에 영향을 받는 의사결정 과정을 포함하기 때문이다. 이러한 이유로 의료계에서 빅데이터와 인공지능이 항상 최선의 결과를 가져온다고만 할 수 없다는 지적이 있다[5]. 현재로서는 인공지능의 발전 수준이 인간의 지능 혹은 인간보다 뛰어난 수준이 아니라, 특정 영역의 문제만을 해결해 주는 좁은 의미의 인공지능(artificial narrow intelligence)이 대부분이기 때문이다[6]. 빅데이터와 인공지능이 제시하는 알고리즘이 의료 현장에서 활용 가능한지, 실제로 가장 적절한 선택이 될 수 있는지에 대한 윤리적 관점의 고려도 필요하다. 이에 의료 영역에서 빅데이터나 인공지능을 활용하는 것이 실제로 최선의 대안이 될 수 있는지에 대해 윤리적 관점에서 논의해 보고자 한다.

본론

의료란 고도화된 전문 지식과 숙련된 기술을 필요로 하는 행위이다. 하지만 의료진 한 명이 처리할 수 있는 노동의 양과 시간은 상당히 제한적이며, 빅데이터와 인공지능을 활용하는 것은 이러한 부분에서 큰 장점을 갖는다. 고도화된 전문 지식과 숙련된 기술을 가진 인공지능 로봇 여러 개가 동시에 작동한다면, 제한된 시간이라는 물리적 한계를 쉽게 극복할 수 있기 때문이다. 이러한 ‘자율 인공지능 시스템(autonomous AI system) [7,8]을 생산적인 측면에서만 바라본다면, 의료 분야에 인공지능을 활용하는 것은 경제적 비용과 인력 자원을 효율적으로 활용하는 수단이 될 수 있다.

1. 인공지능의 합리적인 선택과 의도치 않은 결과

인공지능의 효율적인 측면에 대해서는 논란의 여지가 없다. 현실적으로 논란이 되는 점은 고도화된 전문 지식과 숙련된 기술을 보유한 의료진만큼 인공지능을 통한 의료 행위의 결과적 실현이 가능한지에 대한 부분이다. 의료 행위는 인간을 대상으로 하는 ‘의사결정(decision making)’ 과정이며[5], 이 과정은 일률적으로 이뤄지기 어렵다. 때문에 실제 진료 현장에서는 표준화된 가이드라인에 어긋난 최선의 진료가 있을 수 있으며, 동일한 질환을 가진 환자들이라도 서로 다른 치료를 시도하는 경우가 빈번하게 존재한다[9]. 숙련된 의료진이 최선의 의료 행위를 결정하는 과정은 환자의 질병에 관한 의학적 데이터뿐만 아니라, 환자의 건강 행태에 영향을 주는 사회 경제적 상황 및 개인적 생활 양식 등 다양한 데이터를 통합해서 고려하기 때문이다. 따라서 의학적 전문 지식만으로 판단하는 인공지능 알고리즘으로는 최선의 결과를 보장하기 어려울 수 있다. 인공지능을 통한 의료 행위의 결정이 최선의 결과를 보장하는 행위 모델 대안이 될 수 있을지에 대한 우려가 존재하는 이유이기도 하다. 때문에 현재로서는 인공지능 알고리즘은 대부분 “의사보조(decision supporting)”의 역할을 수행한다.
또 다른 우려의 부분은 인공지능에 의한 의료 행위의 윤리적 평가이다. 인공지능에 의한 선택이 도덕적으로 항상 옳은 선택이 되기 어려울 수 있다는 것이다. 생존확률 0.01%의 환자와 생존확률 99.9%로 자해를 시도하는 환자에게 각각 어떠한 선택이 최선의 의료 행위라고 판단될 수 있는지에 대해서는 실제로 많은 현실적 고려요소가 필요하다[5]. 의료 행위의 합리성에 대한 평가는 효율성만 가지고 판단하기 어렵기 때문에, 인공지능에 전적으로 의존한 판단 결과는 환자에게 최선의 결과가 아닐 수 있다. 인공지능의 효율성에 의해 가장 합리적인 선택을 한다면 이는 곧 최선의 결과를 보장해야 하지만, 현실적으로는 알고리즘의 우선순위를 벗어난 선택이 최선일 가능성이 언제나 존재할 수 있다.

2. 인공지능 결정모델의 안정성에 대한 위험

수많은 약물이나 의료 기기들이 오랜 기간 수많은 검증과 안정성 테스트를 거치는 것에 반해, 인공지능에 대한 의료 진입장벽은 상대적으로 낮은 편이다. 인공지능 알고리즘을 의료 현장에 적용해보고, 문제가 있으면 알고리즘을 보완하자는 위험한 사고가 허용되기도 한다. 인공지능에 대한 허용적인 분위기가 환자의 안전까지 위협할 수 있다는 지적이 나오는 이유이기도 하다. 인공지능 알고리즘을 만든 설계자조차 어떠한 과정으로 인공지능의 최종 행위가 결정되는지에 대한 경로를 완벽하게 파악하기 어렵기 때문에(블랙박스 인공지능, black box AI [10,11]) 최종 선택이 이뤄지더라도 선택의 적절성에 대한 의료적인 감수가 반드시 병행되어야 한다. 최근에는 알고리즘의 결과뿐만 아니라 결과를 도출한 이유에 대한 설명이 포함된 “설명가능 인공지능(explainable AI, XAI)” 혹은 “해석할 수 있는 기계학습(interpretable machine learning)”에 대한 개발도 지속적으로 진행되고 있지만[12-14], 아직까지는 일부에 그치고 있는 상황이다. 따라서 위해도가 낮아 보이는 인공지능의 활용이라도, 인체를 대상으로 하는 의료 행위에 활용할 때에는 위해 가능성을 예민하게 고려해야 한다.

3. 인공지능 알고리즘의 가치편향성

알고리즘이란 설계된 방식으로 일이 처리되는 과정이므로 그것을 설계하는 사람의 의도가 반영된다. 인공지능 시스템 자체는 중립적으로 보일 수 있지만, 인공지능을 설계하는 사람들의 가치 판단이 개입될 수 있다. 따라서 새로운 인공지능을 의료에 도입할 때에는 알고리즘 자체의 논리적 결함뿐 아니라 알고리즘의 가치적 편향성에 대한 검증도 병행되어야 한다. 알고리즘의 구현 첫 단계부터 근본적으로 어떤 목적을 가지고 무엇을 추구할 것인가에 대한 가치 판단이 고려되어야 한다. 소수에 대한 차별적 가치가 개입되거나, 개인 인권의 가치가 배제되어서는 안 된다.

4. 의료 빅데이터의 현실적 신뢰도

인공지능 알고리즘의 신뢰도를 높이기 위해서는, 그 근간이 되는 데이터 획득 과정의 투명성과 데이터 자체의 정확성에 대한 검증이 필요하다. 하지만 실제로 병원에서 생성해내는 다양한 데이터들의 신뢰도는 상당히 낮은 것이 현실이다[15]. 우리가 접하고 있는 의료 데이터는 바로 활용될 수 있을 정도로 처리되어 있지 않은 경우가 많다. 따라서 관련된 모든 데이터가 확보되었다 하더라도, 합리적인 해석과 결론이라고 단정 짓기에는 무리가 있을 수 있다. 이런 데이터는 양이 많더라도 단순한 정보(information)를 추출하는 것 이상의 임상적으로 의미 있는 지식(knowledge)을 얻지 못할 수 있으며[15,16] 이에 대해서는 숙련된 의료진이 데이터의 질과 데이터 해석의 과정 및 방향성을 적절히 설계하고 감수하는 과정이 필수적으로 병행되어야 한다.

결론

빅데이터를 활용한 알고리즘이 명확하다 하더라도 의료 행위로서 최선의 결과를 보장하기는 어려울 수 있다. 인공지능 알고리즘에 전적으로 의존하면 편협한 정보에 의한 잘못된 의사결정 행위로 이어질 수 있기 때문이다. 따라서 아직까지는 인공지능을 활용한 의료 행위는 의료진들의 행위를 보조하는 수준에서 고려되어야 할 것이다[5]. 빅데이터 인공지능에 의한 결과가 숙련된 의료진의 의견보다 우위를 점하게 되는 역설적 상황의 위험성에 대해 경계해야 한다. 인공지능 알고리즘에 의한 의료 행위가 어떤 목적이 있는지, 어떤 과정에 의하는 것인지, 어떤 결과물을 도출해 낼 것인지에 대해 의료인의 감수가 필요하다. 의학적 가치를 기반으로 인공지능 알고리즘이 얼마나 합리적이고 적합한지가 숙고되어야 한다[17].
의료 행위에 있어 인공지능 알고리즘이 활성화될수록, 숙련된 의료진의 변화된 역할이 수반되어야 할 것이다. 단순히 데이터의 양과 처리속도에 가치를 부여하는 것이 아니라, 그 데이터에 의해 생성된 알고리즘이 어떤 의미를 가지는지 숙련된 의료진의 감수나 검토가 필수적이다. 의료 윤리 관점을 포함하여 통합적으로 의료 행위의 본질에 대한 개념을 보완해야 인공지능에 의한 의료 행위는 올바른 방향으로 활용되고 현실적으로 적용될 수 있을 것으로 생각된다.

REFERENCES

1. Benke K, Benke G. Artificial intelligence and big data in public health. Int J Environ Res Public Health. 2018; 15:2796.
crossref
2. Yu KH, Beam AL, Kohane IS. Artificial intelligence in healthcare. Nat Biomed Eng. 2018; 2:719–31.
crossref
3. Johnson KW, Torres Soto J, Glicksberg BS, Shameer K, Miotto R, Ali M, et al. Artificial intelligence in cardiology. J Am Coll Cardiol. 2018; 71:2668–79.
crossref
4. Hwang TJ, Kesselheim AS, Vokinger KN. Lifecycle regulation of artificial intelligence- and machine learning-based software devices in medicine. JAMA. 2019; 322:2285–6.
crossref
5. Kim HS. Decision-making in artificial intelligence: is it always correct? J Korean Med Sci. 2020; 35:e1.
crossref
6. Coiera E. The price of artificial intelligence. Yearb Med Inform. 2019; 28:14–5.
crossref
7. Abràmoff MD, Tobey D, Char DS. Lessons learned about autonomous AI: finding a safe, efficacious, and ethical path through the development process. Am J Ophthalmol. 2020; 214:134–42.
crossref
8. Grzybowski A, Brona P. A pilot study of autonomous artificial intelligence-based diabetic retinopathy screening in Poland. Acta Ophthalmol. 2019; 97:e1149–50.
crossref
9. Kim H, Lee H, Kim TM, Yang SJ, Baik SY, Lee SH, et al. Change in ALT levels after administration of HMG-CoA reductase inhibitors to subjects with pretreatment levels three times the upper normal limit in clinical practice. Cardiovasc Ther. 2018; 36:e12324.
crossref
10. London AJ. Artificial intelligence and black-box medical decisions: accuracy versus explainability. Hastings Cent Rep. 2019; 49:15–21.
crossref
11. Hosny A, Parmar C, Coroller TP, Grossmann P, Zeleznik R, Kumar A, et al. Deep learning for lung cancer prognostication: a retrospective multi-cohort radiomics study. PLoS Med. 2018; 15:e1002711.
crossref
12. Tsakiridis NL, Diamantopoulos T, Symeonidis AL, Theocharis JB, Iossifides A, Chatzimisios P, et al. Versatile internet of things for agriculture: an eXplainable AI approach. Maglogiannis I, Iliadis L, Pimenidis E, editors. Artificial intelligence applications and innovations. Cham: Springer;2020. p. 180–91.
crossref
13. Kim SG, Theera-Ampornpunt N, Fang CH, Harwani M, Grama A, Chaterji S. Opening up the blackbox: an interpretable deep neural network-based classifier for cell-type specific enhancer predictions. BMC Syst Biol. 2016; 10 Suppl 2(Suppl 2):54.
crossref
14. The Lancet Respiratory Medicine. Opening the black box of machine learning. Lancet Respir Med. 2018; 6:801.
15. Kim HS, Kim JH. Proceed with caution when using real world data and real world evidence. J Korean Med Sci. 2019; 34:e28.
crossref
16. Kim HS, Kim DJ, Yoon KH. Medical big data is not yet available: why we need realism rather than exaggeration. Endocrinol Metab (Seoul). 2019; 34:349–54.
crossref
17. Keskinbora KH. Medical ethics considerations on artificial intelligence. J Clin Neurosci. 2019; 64:277–82.
crossref
TOOLS
Similar articles