quarta-feira, 25 setembro 2024
29.3 C
Curitiba

A Inteligência Artificial está revolucionando o setor da saúde, mas é preciso criar parâmetros e responsabilidade ética

por Marcos Tadeu Machado, membro do Conselho de Administração do Instituto Ética Saúde e um dos seus fundadores

A Inteligência Artificial (IA) não é novidade e tem um papel cada vez mais importante no futuro da saúde, podendo ter um impacto significativo na melhoria do atendimento ao paciente, eficiência operacional e redução de custos.

Mas, à medida que os temores sobre o potencial disruptivo da IA aumentaram, a ética na IA ganhou destaque, nos últimos anos. Preocupações com privacidade, transparência e capacidade dos algoritmos de distorcer o discurso social e político de maneiras inesperadas resultaram em uma enxurrada de pronunciamentos de governos e organizações e instituições internacionais sobre como conduzir o desenvolvimento ético de tecnologias disruptivas na saúde. No Brasil, o Instituto Ética Saúde é uma delas.

A IA pode ser usada em diagnósticos médicos e tratamentos, onde sistemas usam dados de pacientes para ajudar a identificar sintomas e doenças que podem ser difíceis de detectar pelos médicos; ajudar a desenvolver drogas potenciais mais rapidamente e com maior precisão; realizar monitoramento de sinais vitais em tempo real; assistência robótica em cirurgias; triagem de pacientes em tempo real e atendimento ao cliente por meio de chatbots (software capaz de manter uma conversa com um usuário humano em linguagem natural). E essas tecnologias devem continuar a evoluir e encontrar novas aplicações, proporcionando melhores resultados para pacientes e profissionais de saúde.

A ética no uso da inteligência artificial na saúde é fundamental para garantir que a tecnologia seja utilizada de forma justa, transparente e respeitosa com as pessoas envolvidas. Neste sentido, é preciso criar parâmetros e responsabilidades. Enumeramos várias questões a serem consideradas:

1) Privacidade e proteção de dados: É importante garantir que os dados dos pacientes sejam processados e armazenados de forma segura e de acordo com as regulamentações aplicáveis para proteger a privacidade dos pacientes;

2) Viés algorítmico: Os algoritmos de IA são treinados com base em dados. Se esses dados forem tendenciosos, o algoritmo também será tendencioso. É crucial garantir que os dados utilizados sejam representativos da diversidade da população e que os algoritmos sejam monitorados quanto a possíveis vieses;

3) Responsabilidade e tomada de decisão: Os sistemas de IA devem ser transparentes e responsáveis em suas decisões, especialmente quando se trata de diagnósticos e tratamentos de saúde. É importante que os profissionais de saúde que usam esses sistemas entendam como eles funcionam e devem ser responsáveis ​​por suas decisões finais;

4) Consentimento dos pacientes: Os pacientes devem ser informados de como seus dados serão usados e terem a opção de optar por não participar de serviços que usam inteligência artificial.

Em resumo, a ética deve ser considerada em todas as fases do desenvolvimento e implantação da IA na saúde, garantindo que a tecnologia seja usada de forma responsável, transparente e não discriminatória. Desta maneira, todos sairão ganhando!

 

Destaque da Semana

Startups ganham apoio para crescimento na área socioambiental

Ondas de frio ou calor, tempestades, enchentes, aumento do...

Aprenda como cuidar das plantas no Inverno e descubra quais espécies florescem na estação

Especialista em paisagismo, a Landscape Jardins conta quais são...

Estudantes podem usar nota do ENEM para cursar medicina

O Centro Universitário Integrado de Campo Mourão (PR) está...

Retinoblastoma: a falta de exames na primeira infância pode levar à cegueira

Nem sempre o retinoblastoma ou câncer no olho é...

Artigos Relacionados

Destaque do Editor

Popular Categories

Mais artigos do autor