https://sellio.store/pl/page/28/     https://fashionetta.org/pl/page/28/     https://home-partner.org/pl/page/28/     https://car-paradise.org/pl/page/28/     https://car-accessories.net/pl/page/28/     https://modeo-shop.com/pl/page/28/     https://wibratory.net/pl/page/28/     https://etui-empire.com/pl/page/28/     https://e-papierosy.org/pl/page/28/     https://ero-land.org/pl/page/28/     https://lampy-sklep.com/pl/page/28/     https://desteo.org/pl/page/28/     https://shopara.org/pl/page/28/     https://shopme-online.org/pl/page/28/     https://shopinio.org/pl/page/28/     https://shopopolis.org/pl/page/28/     https://shoporama.org/pl/page/28/     https://desuto.org/pl/page/28/     https://shopsy-online.org/pl/page/28/     https://e-shopsy.org/pl/page/28/     https://vandershop.net/pl/page/28/    https://etui-empire.com/pl/    https://catalog-info.com/    https://it-tricks.com/pl/

websites-info.com

Kolejna witryna oparta na WordPressie

Co ubezpieczyciele powinni wiedzieć o zagrożeniach związanych z AI i uczeniem maszynowym

Sztuczna inteligencja (AI) i uczenie maszynowe (ML) w dalszym ciągu przekształcają branżę ubezpieczeniową. Wiele firm już wykorzystuje je do oceny ryzyka ubezpieczeniowego, ustalania cen i oceny roszczeń. Jeśli jednak na wczesnym etapie nie zostaną wprowadzone odpowiednie zabezpieczenia i zarządzanie, ubezpieczyciele mogą być narażeni na konsekwencje prawne, regulacyjne, związane z reputacją, operacyjne i strategiczne. Biorąc pod uwagę wzmożoną kontrolę nad AI i ML ze strony organów regulacyjnych i opinii publicznej, ryzyko to może pojawić się znacznie wcześniej, niż wiele osób zdaje sobie z tego sprawę.

Przyjrzyjmy się, jak AI i ML funkcjonują w ubezpieczeniach, aby lepiej zrozumieć, co może pojawić się na horyzoncie.

Krótki przegląd AI i uczenia maszynowego

Często słyszymy, że terminy „sztuczna inteligencja” i „uczenie maszynowe” są używane zamiennie. Te dwa pojęcia są ze sobą powiązane, ale nie są bezpośrednimi synonimami, dlatego ważne jest, aby ubezpieczyciele znali różnicę. Sztuczna inteligencja odnosi się do szerokiej kategorii technologii mających na celu symulowanie możliwości ludzkiego myślenia.

Uczenie maszynowe jest podgrupą sztucznej inteligencji, której celem jest rozwiązywanie bardzo konkretnych problemów poprzez umożliwienie maszynom uczenia się na podstawie istniejących zbiorów danych i przewidywania, bez konieczności wykonywania wyraźnych instrukcji programistycznych. W przeciwieństwie do futurystycznej „sztucznej inteligencji ogólnej”, której celem jest naśladowanie zdolności człowieka do rozwiązywania problemów, uczenie maszynowe można zaprojektować tak, aby wykonywały tylko bardzo konkretne funkcje, do których zostały przeszkolone. Uczenie maszynowe identyfikuje korelacje i dokonuje przewidywań na podstawie wzorców, które w innym przypadku nie zostałyby zauważone przez ludzkiego obserwatora. Siła uczenia maszynowego polega na jego zdolności do przetwarzania ogromnych ilości danych, wyszukiwania korelacji i stosowania wyników w celach predykcyjnych.

Ograniczenia i pułapki AI/ML

Wiele potencjalnych obaw związanych z zastosowaniami AI i uczenia maszynowego w branży ubezpieczeniowej wynika z modeli wnioskowania predykcyjnego – modeli, które są zoptymalizowane do przewidywania przede wszystkim lub wyłącznie na podstawie korelacji w zbiorach danych, które są następnie wykorzystywane przez te modele do tworzenia prognoz. Takie korelacje mogą odzwierciedlać dyskryminację w przeszłości, więc istnieje możliwość, że bez nadzoru modele AI/ML będą w przyszłości utrwalać dyskryminację z przeszłości. Dyskryminacja może oczywiście występować bez AI/ML, ale jej skala jest znacznie mniejsza, a przez to mniej niebezpieczna.

Rozważmy sytuację, w której model wykorzystuje historię cukrzycy i wskaźnik BMI jako czynniki do oceny oczekiwanej długości życia, co z kolei wpływa na ceny ubezpieczeń na życie. Model mógłby zidentyfikować korelację między wyższym BMI lub częstością występowania cukrzycy a śmiertelnością, co spowodowałoby wzrost ceny polisy. Jednak w tych danych nie widać, że Afroamerykanie częściej chorują na cukrzycę i mają wysoki wskaźnik BMI. Po prostym porównaniu rozkładu cen według rasy, zmienne te spowodowałyby, że ceny polis dla Afroamerykanów byłyby wyższe.

Model wnioskowania predykcyjnego nie zajmuje się związkiem przyczynowym; jest po prostu szkolony do wyszukiwania korelacji. Nawet jeśli model ML jest zaprogramowany tak, aby wyraźnie wykluczyć rasę jako czynnik w podejmowanych przez siebie decyzjach, może on mimo to podejmować decyzje, które prowadzą do nierównego traktowania kandydatów o różnym pochodzeniu rasowym i etnicznym. Ten rodzaj dyskryminacji pośredniej ze strony modeli ML może być znacznie subtelniejszy i trudniejszy do wykrycia niż przykład opisany powyżej. Mogą one być również dopuszczalne, jak w poprzednim przykładzie BMI/cukrzyca, ale niezwykle ważne jest, aby firmy mają wgląd w te elementy wyników swojego modelu.

Drugą istotną wadą modeli wnioskowania predykcyjnego jest to, że nie są one w stanie przystosować się do nowych informacji, chyba że lub dopóki nie zostaną odpowiednio zaaklimatyzowane do „nowej rzeczywistości” poprzez trening na zaktualizowanych danych. Rozważmy następujący przykład.

Wyobraźmy sobie, że ubezpieczyciel chce ocenić prawdopodobieństwo, że osoba ubiegająca się o ubezpieczenie będzie wymagała długoterminowej opieki w domu. Szkoli swoje modele ML w oparciu o dane historyczne i zaczyna przewidywać na tej podstawie. Jednak później zostaje odkryta przełomowa metoda leczenia (na przykład lek na chorobę Alzheimera), która prowadzi do 20% spadku zapotrzebowania na usługi opieki domowej. Istniejący model ML nie jest świadomy tej zmiany i nie może się dostosować do nowej rzeczywistości, jeśli nie zostanie przeszkolony na nowych danych. Dla ubezpieczyciela prowadzi to do zawyżania cen polis i zmniejszenia konkurencyjności.

Wniosek jest taki, że AI/ML wymaga ustrukturyzowanego procesu planowania, zatwierdzania, audytu i ciągłego monitorowania przez międzyorganizacyjną grupę ludzi, aby skutecznie przezwyciężyć jej ograniczenia.

Kategorie ryzyka związanego z AI i uczeniem maszynowym

Ogólnie rzecz biorąc, istnieje pięć kategorii ryzyka związanego z AI i uczeniem maszynowym, o które powinni zadbać ubezpieczyciele: ryzyko utraty reputacji, prawne, strategiczne/finansowe, operacyjne i zgodności/regulacyjne.

Ryzyko utraty reputacji wynika z potencjalnego negatywnego rozgłosu wokół problemów takich jak dyskryminacja przez pełnomocników. Modele predykcyjne stosowane przez większość systemów uczenia maszynowego są podatne na wprowadzanie błędów. Na przykład ubezpieczyciel, który wcześnie wprowadził sztuczną inteligencję, spotkał się ostatnio z negatywnymi reakcjami ze strony konsumentów, gdy jego technologia została skrytykowana ze względu na możliwość traktowania osób kolorowych inaczej niż białych ubezpieczonych.

Wprowadzając AI/ML, ubezpieczyciele muszą aktywnie zapobiegać stronniczości w swoich algorytmach i powinni być przygotowani do pełnego wyjaśnienia swoich zautomatyzowanych decyzji podejmowanych w oparciu o AI. Dyskryminacji proxy należy zapobiegać, gdy tylko jest to możliwe, poprzez silne zarządzanie, ale jeśli mimo najlepszych starań firmy dochodzi do dyskryminacji, liderzy biznesowi muszą być przygotowani na wyjaśnienie, w jaki sposób systemy podejmują decyzje, co z kolei wymaga przejrzystości aż do poziomu transakcji i zmian w poszczególnych wersjach modeli.

Kluczowe pytania:

  1. W jaki nieoczekiwany sposób decyzje modeli AI/ML mogą wpłynąć na naszych klientów, bezpośrednio lub pośrednio?
  2. W jaki sposób ustala się, czy cechy modelu mogą potencjalnie prowadzić do dyskryminacji pośredniej klas chronionych?
  3. Jakie zmiany musiały wprowadzić zespoły zajmujące się ryzykiem modeli, aby uwzględnić zmieniający się charakter modeli AI/ML?

Ryzyko prawne grozi praktycznie każdej firmie wykorzystującej AI/ML do podejmowania ważnych decyzji, które mają wpływ na życie ludzi. Chociaż precedensów prawnych dotyczących dyskryminacji wynikającej z AI/ML jest niewiele, firmy powinny przyjąć bardziej proaktywną postawę w zakresie zarządzania swoją AI w celu wyeliminowania stronniczości. Powinny również przygotować się do obrony swoich decyzji dotyczących wyboru danych, ich jakości oraz procedur audytowych, które zapewnią, że decyzje podejmowane przez maszyny nie będą nacechowane stronniczością. Pozwy zbiorowe i inne postępowania sądowe z pewnością pojawią się w nadchodzących latach w miarę upowszechniania się AI/ML i wzrostu świadomości ryzyka.

Kluczowe pytania:

  1. W jaki sposób monitorujemy rozwój prawodawstwa i nowe orzeczenia sądowe dotyczące systemów AI/ML? </li>Jak
  2. moglibyśmy zdobyć dowody dotyczące konkretnych transakcji AI/ML w celu obrony prawnej, gdyby przeciwko firmie został wniesiony pozew zbiorowy?
  3. W jaki sposób udowodnilibyśmy w sądzie odpowiedzialność i odpowiedzialne wykorzystanie technologii?

Ryzyko strategiczne i finansowe wzrośnie, gdy firmy będą polegać na AI/ML w celu wsparcia większej liczby codziennych decyzji, które napędzają ich modele biznesowe. W miarę jak ubezpieczyciele automatyzują coraz więcej swoich podstawowych procesów decyzyjnych, w tym underwriting i wycenę, ocenę roszczeń i wykrywanie oszustw, ryzykują, że będą się mylić w kwestiach podstawowych, które decydują o ich sukcesie (lub porażce) biznesowym. Co ważniejsze, istnieje ryzyko, że będą się mylić na dużą skalę.

Obecnie różnorodność ludzi uczestniczących w kluczowych procesach biznesowych służy jako bufor chroniący przed podejmowaniem złych decyzji. Nie oznacza to, że złe decyzje nigdy nie są podejmowane. Zdarzają się, ale w miarę jak ludzki osąd odgrywa coraz mniejszą rolę w tych procesach, a SI/ML odgrywają coraz większą, błędy mogą być powielane na dużą skalę. Ma to poważne implikacje strategiczne i finansowe.

Kluczowe pytania:

  1. W jaki sposób zapobiegamy wpływowi modeli AI/ML na nasze strumienie przychodów lub wypłacalność finansową?
  2. Jaki problem biznesowy ma rozwiązać model AI/ML i jakie inne rozwiązania, niebędące modelami AI/ML, były brane pod uwagę?
  3. Jakie możliwości może wykorzystać konkurencja dzięki zastosowaniu bardziej zaawansowanych modeli?

Należy również wziąć pod uwagę ryzyko operacyjne, ponieważ nowe technologie często mają wady i ograniczenia, których początkowo nie dostrzegano lub które mogły zostać zbagatelizowane w początkowej fazie entuzjazmu, który często towarzyszy innowacyjnym programom. Jeśli technologia AI/ML nie jest odpowiednio zabezpieczona – lub jeśli nie zostaną podjęte kroki w celu zapewnienia solidności i skalowalności systemów – ubezpieczyciele mogą napotkać poważne przeszkody podczas prób jej wdrożenia. Niedopasowanie międzyfunkcjonalne i silosy decyzyjne mogą również potencjalnie zniweczyć rodzące się inicjatywy AI/ML.

Kluczowe pytania:

  1. W jaki sposób oceniamy bezpieczeństwo i niezawodność naszych systemów AI/ML?
  2. Co zrobiliśmy, aby sprawdzić skalowalność infrastruktury technologicznej, która obsługuje nasze systemy?
  3. Jak dobrze kompetencje techniczne i doświadczenie organizacji odpowiadają potrzebom naszego projektu AI/ML?

Zgodność z przepisami i ryzyko regulacyjne powinny być coraz większym problemem dla ubezpieczycieli, ponieważ ich inicjatywy AI/ML wchodzą do powszechnego użytku, wpływając na decyzje, które w istotny sposób wpływają na życie ludzi. W najbliższym czasie agencje federalne i stanowe wykazują zwiększone zainteresowanie potencjalnymi skutkami AI/ML.

Federalna Komisja Handlu, stanowe komisje ubezpieczeniowe i zagraniczne organy regulacyjne wyraziły obawy związane z tymi technologiami i starają się lepiej zrozumieć, co należy zrobić, aby chronić prawa osób znajdujących się pod ich jurysdykcją. Europejskie Ogólne rozporządzenie o ochronie danych (GDPR), kalifornijska ustawa o ochronie prywatności konsumentów (CCPA) oraz podobne przepisy i regulacje na całym świecie wciąż ewoluują w miarę toczących się w sądach postępowań.

W dłuższej perspektywie można się spodziewać, że przepisy będą określane na bardziej szczegółowym poziomie, a w ślad za nimi pójdą odpowiednie środki egzekwowania. Krajowe Stowarzyszenie Komisarzy Ubezpieczeniowych (NAIC) i inne instytucje już sygnalizują swoje zamiary w zakresie nadzorowania aplikacji AI/ML w ramach swoich kompetencji. W 2020 roku NAIC opublikowała swoje zasady przewodnie

w zakresie sztucznej inteligencji (w oparciu o zasady opublikowane przez OECD), a w 2021 r. utworzyła grupę roboczą ds. dużych danych i sztucznej inteligencji. Federalna Komisja Handlu (FTC) również doradziła firmom z różnych branż, że istniejące przepisy są wystarczające, aby objąć wiele zagrożeń stwarzanych przez AI. Środowisko regulacyjne szybko się rozwija.

Kluczowe pytania

:

  1. Jakie regulacje branżowe i handlowe, pochodzące z takich instytucji, jak NAIC, stanowe departamenty ubezpieczeń, FTC i przepisy dotyczące prywatności cyfrowej, mają wpływ na naszą działalność?
  2. W jakim stopniu dopasowaliśmy wymogi regulacyjne do stosowanych przez nas mechanizmów kontrolnych i procesów dokumentacyjnych?
  3. Jak często oceniamy, czy nasze modele podlegają określonym przepisom?

Wszystkie te obszary musimy uważnie obserwować w nadchodzących dniach. Nie ulega wątpliwości, że z AI/ML wiążą się pewne zagrożenia; nie wszystko jest usłane różami, gdy wyjdzie się poza szum wokół możliwości tej technologii. Jednak zrozumienie tych zagrożeń to połowa sukcesu.

Na rynku pojawiają się nowe rozwiązania, które mają pomóc ubezpieczycielom wygrać wojnę z ryzykiem poprzez opracowanie solidnych praktyk w zakresie zarządzania i zapewniania bezpieczeństwa. Z ich pomocą lub przy zaangażowaniu specjalistów wewnętrznych, ryzyko zostanie przezwyciężone, aby AI/ML mogła wykorzystać swój potencjał.

CHCESZ POPRAWIĆ JAKOŚĆ DANYCH W SWOJEJ ORGANIZACJI?

Dowiedz się, jak zacząć i wykorzystać wiele zasad i praktyk jakości danych, korzystając z naszych kursów online.


Czytaj dalej: https://www.dataversity.net/what-insurers-need-to-know-about-the-risks-of-ai-and-machine-learning/

Related Posts

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.