A Inteligência Artificial está revolucionando o setor da saúde, mas é preciso criar parâmetros e responsabilidade ética

por Marcos Tadeu Machado, membro do Conselho de Administração do Instituto Ética Saúde e um dos seus fundadores

A Inteligência Artificial (IA) não é novidade e tem um papel cada vez mais importante no futuro da saúde, podendo ter um impacto significativo na melhoria do atendimento ao paciente, eficiência operacional e redução de custos.

Mas, à medida que os temores sobre o potencial disruptivo da IA aumentaram, a ética na IA ganhou destaque, nos últimos anos. Preocupações com privacidade, transparência e capacidade dos algoritmos de distorcer o discurso social e político de maneiras inesperadas resultaram em uma enxurrada de pronunciamentos de governos e organizações e instituições internacionais sobre como conduzir o desenvolvimento ético de tecnologias disruptivas na saúde. No Brasil, o Instituto Ética Saúde é uma delas.

A IA pode ser usada em diagnósticos médicos e tratamentos, onde sistemas usam dados de pacientes para ajudar a identificar sintomas e doenças que podem ser difíceis de detectar pelos médicos; ajudar a desenvolver drogas potenciais mais rapidamente e com maior precisão; realizar monitoramento de sinais vitais em tempo real; assistência robótica em cirurgias; triagem de pacientes em tempo real e atendimento ao cliente por meio de chatbots (software capaz de manter uma conversa com um usuário humano em linguagem natural). E essas tecnologias devem continuar a evoluir e encontrar novas aplicações, proporcionando melhores resultados para pacientes e profissionais de saúde.

A ética no uso da inteligência artificial na saúde é fundamental para garantir que a tecnologia seja utilizada de forma justa, transparente e respeitosa com as pessoas envolvidas. Neste sentido, é preciso criar parâmetros e responsabilidades. Enumeramos várias questões a serem consideradas:

1) Privacidade e proteção de dados: É importante garantir que os dados dos pacientes sejam processados e armazenados de forma segura e de acordo com as regulamentações aplicáveis para proteger a privacidade dos pacientes;

2) Viés algorítmico: Os algoritmos de IA são treinados com base em dados. Se esses dados forem tendenciosos, o algoritmo também será tendencioso. É crucial garantir que os dados utilizados sejam representativos da diversidade da população e que os algoritmos sejam monitorados quanto a possíveis vieses;

3) Responsabilidade e tomada de decisão: Os sistemas de IA devem ser transparentes e responsáveis em suas decisões, especialmente quando se trata de diagnósticos e tratamentos de saúde. É importante que os profissionais de saúde que usam esses sistemas entendam como eles funcionam e devem ser responsáveis ​​por suas decisões finais;

4) Consentimento dos pacientes: Os pacientes devem ser informados de como seus dados serão usados e terem a opção de optar por não participar de serviços que usam inteligência artificial.

Em resumo, a ética deve ser considerada em todas as fases do desenvolvimento e implantação da IA na saúde, garantindo que a tecnologia seja usada de forma responsável, transparente e não discriminatória. Desta maneira, todos sairão ganhando!

 

Destaque da Semana

Catuaí inaugura primeiro quiosque da Eora Brasil em Maringá

Marca de cosméticos com produtos 100% naturais e veganos...

Início da construção do B41, primeiro student housing do Paraná

Com o início das obras, praça de uso compartilhado...

Artigos Relacionados

Destaque do Editor

Mais artigos do autor