google-site-verification=s4MOymLoYTc2UwfwvkG5ShpCUEdvfbJ7QHnhNavHfi4 인공지능 스토리 :: 인공지능의 신뢰성

카테고리 없음 2020. 11. 4. 17:41

인공지능의 신뢰성

인공지능에 대한 편견을 줄일 수 있을까?

인공지능에 대한 편견을 줄일 수 있을까? 인공지능의 사용이 보험 분야에 까지 확장됨에 따라 정확한 결과를 제공하면서 동시에 편견을 줄여야합니다. 보험 분야는 결정의 사업 입니다. 이것은 보험의 계약에서 갱신에 이르기까지 그리고 클레임 프로세스 전반에 걸쳐 정책 라이프 사이클 전반에 걸쳐서 특히나 그렇습니다. 매일 보험 전문가는 보험사와 피보험자 모두에게 영향을 미치고 있고 비즈니스에 지속적인 영향을 미칠 수있는 중요한 선택을 연속적으로 합니다. 그들은 새로운 정책과 관련된 위험의 정도와 같은 질문에 대답합니다. 위험을 인수 할 가치가 있으며 그러한 위험을 가장 효과적으로 완화하기 위해 정책을 어떻게 작성 해야할지에 대해 알아보면 다음과 같습니다. 보험 계약자가 청구를 할 때 청구 전문가는 그것이 합법적인지 또는 사기의 징후를 보이는지에 대해 결정을 해야합니다. 보험 계약자는 보험사의 개입이 없이 온라인으로 청구를 관리하는 것을 선호하는 경향이 있습니다. 그리고 청구 전문가가 관련된 경우 청구가 시간과 노력을 절약하기 위해 직접 처리 및 빠른 지불에 적합하다고 봅니다. 보험사는 보험을 인수하고 보험금을 청구하는 과정에서 수백 가지의 거시적 결정과 미시적 결정을 내리게 됩니다. 지난 몇 년 동안 보험 회사 경영진은 인공지능이 정책의 수명주기 전반에 걸쳐 의사 결정을 자동화 하거나 최적화하는데 어떻게 도움이되는지에 대해 탐구를 해 왔습니다. 클레임 프로세스에 관해서 인공지능이 제공하는 가능성을 더 잘 이해하게 되면서 보험 시장 참여자가 이러한 기술에 더 많이 투자하기 시작했습니다. 인공지능은 신뢰의 문제입니다. 인공지능 대한 업계의 편안함 수준이 빠르게 증가하고 있지만 한 가지 중요한 질문이 여전히 남아 있습니다. "로봇의 결정을 믿을 수 있습니까?" 이 질문에 대한 답은 특히 인공지능이 정확한 결정을 빠르고 효율적으로 내리는 데 필요한 상황에서 중요합니다. 많은 사람들이 인공지능을 블랙박스 기술로 보고 있기 때문에 인공지능을 통해서 도출 된 결정이 반드시 최선이 아닐 수도 있다는 우려가 있습니다. 많은 사람들에게 그들의 우려의 근거는 편견에 관한 것에 불과합니다. 중요한 결정을 내리기 위해서 신뢰하는 알고리즘이 과도하게 영향을 받는지 않는지 어떻게 알 수 있는지에 대해 알고싶습니다. 성별, 민족성, 고객이 거주하는 지역 또는 기타 잠재적으로 문제가 있는 데이터와 같은 요소가 "이 주장이 의심 스럽습니까?"와 같은 결정에 영향을 미치지 않는다고 믿을 수 있는지에 대해서는 확답할 수가 없습니다. 그러기 위해서는 편견 최소화가 필요합니다. 좋은 소식은 업계가 주의를 기울이고 편견의 위험을 최소화 하기 위한 조치를 취하고 있다는 것입니다. 예를 들어서 2019년 유럽 위원회가 모은 52명의 전문가 그룹이 신뢰할 수있는 인공지능을 위한 윤리 규칙을 발표 했습니다. 위원회의 목표는 윤리적이고 지속 가능하며 인간 지향적이며 기본 가치와 권리를 존중하는 모든 경제 부문에서 윤리적이고 신뢰할 수있는 인공지능의 개발 및 채택을 지원하는 것입니다. 이는 인공지능 시스템은 사람을 해치거나 속이도록 설계 되어서는 안되며 부정적인 결과를 최소화하는 방식으로 구현되어야한다고 전미 보험 국장 협회가 최근 채택한 지침과 매우 유사합니다. 그리고 편향되지 않은 알고리즘을 구축해야 합니다. 특히 인공지능을 사용하여 청구 및 인수 프로세스에서 더 나은 의사 결정을 지원할 때 편견의 영향을 줄일 수 있는 위치에 이미 있습니다. 업계는 해결하려는 문제를 재고해야 합니다. 이러한 문제는 여러 하위 문제로 분해되고 개별적으로 처리되어 최적의 결과를 도출해야 합니다. 이 개념의 예는 인공지능을 사용하여 잠재적인 사기성 주장을 식별하는 것입니다. 인공지능이 청구가 사기인지 여부를 판단하려고 해서는 안된다는 점을 이해하는 것이 특히 중요합니다. 인공지능은 주장의 다양한 측면에 대한 결정을 내려 의심 여부를 결정해야합니다. 따라서 알고리즘은 의심스러운 행동을 식별하고 의심의 정도를 결정하도록 설계되어야 합니다. 기본적으로 보험 계약자의 인종이나 성별 또는 거주 지역 때문에 청구가 의심되는 것은 아닙니다. 알고리즘은이 사실을 확실하게 나타내야합니다. 다음으로 인공지능의 인간적 요소를 알아봐야 합니다. 인공지능은 그 뒤에 있는 인간 만큼 훌륭 하다는 점을 지적하는 것도 중요 합니다. 청구 사기를 감지하기 위해서 인공지능을 사용하는 예에서 목표가 로봇이 사기를 말한다는 결과를 낳는 알고리즘을 생성하는 것이라면 이것은 잘못된 것입니다. 대신에 로봇은 사기를 생각하고 그 이유를 생각한다는 목표를 향해 노력하여 올바른 결과에 도달하도록 해야합니다. 뿐만 아니라 인간은 로봇이 내린 결정이 옳은지, 어떻게 그 결정을 내렸는지 결정하기 위해 로봇이 사기를 생각한다는 결과를 확인해야 합니다. 인공지능이 옳은 시점과 잘못된 시점을 알리는 것이 중요합니다. 기본적으로 더 나은 편향되지 않은 인공지능을 구축하는 것은 인간과 로봇이 나란히 작업하고 서로 학습하고 그에 따라 조정하는 프로세스입니다. 마지막으로는 로봇의 신뢰성을 유지해야 합니다. 인공지능은 규모에 맞는 정확하고 효율적인 의사 결정을 가능하게 하여 보험사에게 놀라운 비즈니스 가치를 제공 할 수있는 잠재력을 가지고 있습니다. 이를 효과적으로 수행하려면 업계는 최상의 의사 결정을 내릴 수 있도록 설계된 인공지능을 구축하고 배포하는데 부지런 해야 합니다. 이것은 근본적으로 편견이 없음을 의미하고 있습니다. 로봇이 올바른 일에 집중하고 올바른 결정을 내릴 때 강화하고 그렇지 않은 경우 알고리즘을 미세하게 조정함으로써 로봇을 신뢰할 수 있게 유지할 수 있습니다.