Чатботтарға жеке медициналық ақпаратты беру қауіпті

Әлем бойынша аптасына 230 миллионнан астам адам ChatGPT-ден денсаулық пен сауықтыру бойынша кеңес сұрайды. OpenAI компаниясының мәлімдеуінше, көптеген қолданушылар чатботты сақтандыру мәселелерін шешуге, құжаттарды дайындауға және өз денсаулығын жақсарту үшін көмекші ретінде пайдаланады. Алайда, мұндай қызмет дәрігердің қабылдауы емес әрі технологиялық компаниялар медициналық мекемелерге қойылатын талаптарға бағынбайды.
Бұл салада әртүрлі жасанды интеллект жүйелері белсенді дамып жатыр. OpenAI «ChatGPT Health» деген арнайы бөлімін іске қосты, ол пайдаланушыларға қауіпсіз әрі жеке ортада денсаулыққа қатысты сұрақтар қоюға мүмкіндік береді. Сонымен бірге Anthropic компаниясы ауруханалар мен медициналық ұйымдар үшін «HIPAA» стандартына сәйкес келетін Claude for Healthcare өнімін ұсынды. Google өзінің MedGemma медициналық AI моделіне жаңарту енгізді, бірақ ол жалпы қолжетімді чатбот санатында қарастырылмаған.
OpenAI пайдаланушылардан медициналық диагноздары, дәрі-дәрмектері, талдау нәтижелері және түрлі денсаулық қосымшаларындағы мәліметтерді бөлісуді сұрайды. Компания мәліметтердің құпия сақталатынын және олар модельдерді оқыту үшін пайдаланылмайтынын айтады. Сонымен қатар, ChatGPT Health қолданбасының деректерді жеке бөлімде сақтау және пайдаланушыларға «ескертпелерді» көру немесе өшіру мүмкіндігін беру секілді қауіпсіздік шаралары қарастырылған.
Дегенмен, сарапшылар бұл қызметтің пайдаланушыларға толық кепілдік бере алмайтынын ескертеді. Көптеген мемлекеттерде жеке деректерді қорғау туралы заңдар толық жетілмеген, ал федералдық деңгейде кең ауқымды заңдар жоқ. Пайдаланушылардың құқықтары негізінен компаниялардың пайдалану шарттары мен құпиялылық саясатына тәуелді. Қолданушылардың сеніміне қарамастан, компания шарттарын өзгертіп, деректерді басқа жолмен пайдалана алады.
Медицина саласы қатал реттеуге бағынатыны сондықтан маңызды. HIPAA сияқты заңдар азаматтардың деректерін қорғауда нақты жауапкершілік жүктейді, бірақ олар тек медициналық ұйымдарға міндетті. Жасанды интеллект құралдарын өндірушілердің өз еркімен ғана сәйкес келуі көп жағдайда жеткіліксіз қауіпсіздік туғызады.
Қорытындысында, медициналық ақпаратты чатботтарға сеніп тапсырудан сақ болу қажет. Бұл тек деректерді ұрлау немесе заңсыз пайдалану қаупі ғана емес, сонымен бірге нақты медициналық көмек пен диагноз қою қабілеті жоқ жүйелермен ақпарат алмасудың шектеулері бар екенін көрсетеді.
Дереккөз: The Verge



