Informações
Nível de aprovação pela UnB
Aprovado pela UnB
Nome Completo do Proponente
Debora Bonat
Matrícula UnB
1114441
Unidade acadêmica da UnB
debora.bonat.unb@gmail.com
Link Cúrriculo Lattes
Título da Proposta
DR.IA.gadget - monitoramento de saúde por IA
Sumário Executivo da Proposta
O objetivo da pesquisa é produzir conteúdo, desenvolver standards ético-normativos e a arquitetura de IA de um gadget que permita o uso em pacientes vulneráveis, transmitindo dados e estabelecendo alertas nas duas interfaces (paciente-serviço médico), com base na detecção de padrões ajustados para o risco de Covid-19 (frequência respiratória, níveis de oxigenação, pulsação, temperatura corporal, pressão arterial).
Em um ambiente de recursos limitados, em que milhares de pessoas estão vulneráveis e que as instalações médicas são deficitárias em capacidade, mas que há a possibilidade de acesso a muitos dados e padrões, o uso de IA pode ser um componente barato e com resultados extremamente favoráveis à proteção da vida.
O grupo de pesquisa proponente, foi reconhecido em 2018, pelo Supremo
Tribunal Federal, como o realizador do projeto de inovação com um dos maiores impactos na administração pública brasileira (IA no STF).
Os dados e desafios são outros frente a pandemia, mas as bases conceituais para o uso da IA estão disponíveis. Será necessário o desenvolvimento paralelo de soluções tecnológicas para viabilizar a arquitetura de IA do gadget, juntamente com o desenvolvimento de standards éticos e normativos para sua aplicação, tendo em vista um ambiente ainda sub-regulamentado para IA.
Celeridade burocrática, redução de intervenção humana em atividades ariscadas, repetitivas, demoradas e sujeitas a erros não intencionais humanos, precisão, eficiência podem estar associadas à concretização de direitos, dos mais nobres, como a proteção à saúde e cuidados com grupos vulneráveis.
Tipo da Proposta
Palavras-chave
Inteligência artificial, vulneráveis, saúde, gadget
Número de Integrantes da Equipe
25
Nome dos Integrantes da UnB
Debora Bonat (coordenadora), 4 Professores (direito, medicina, engenharia de software e ciência da computação), 12 alunos de graduação (direito, medicina e engenharia), 8 alunos de pós-graduação (direito, medicina e engenharia)
Há integrantes externos à UnB?
Não
Possui apoio de Grupo de Pesquisa Certificado pela UnB no CNPq?
Sim
Nome/Link do Grupo de Pesquisa certificado no CNPq pela UnB
dgp.cnpq.br/dgp/espelhogrupo/5468518770443033
Público alvo
Análise do Contexto
A pandemia de COVID-19 impõe a busca de soluções não tradicionais e coloca países que tradicionalmente têm um sistema de saúde amplo e organizado em situações de esgotamento e possível colapso.
O contexto é de um ambiente incerto, com recursos humanos, físicos e financeiros limitados, mas com demandas de proteção à saúde, à vida e, especialmente, aos grupos vulneráveis em aumento exponencial.
Guardadas as devidas proporções, o problema pelo aumento exponencial de ações judiciais, também submeteu o Poder Judiciário e o campo do Direito de uma forma geral a pesquisar e utilizar soluções diferenciadas para o enfrentamento de uma solução caótica. A IA, nos últimos 3 anos prolifera no tratamento de dados e apoio a decisões que também têm elevado grau de sensibilidade e impacto em direitos humanos fundamentais (vida, saúde, liberdade, etc).
A experiência em uso de IA para tratamento de dados (não exatos, mas com padrões identificáveis) - algo com algum grau de similaridade com a situação da pandemia (novamente guardadas as devidas proporções) pode ser muito útil.
O uso e desenvolvimento de soluções de IA para a área de saúde (assim como as da área jurídica), requer o estabelecimento de standards ético-normativos. Assim, o a aplicação de uma solução de IA como a imaginada através da proposta, passa por uma etapa prévia com esses fundamentos (que podem ser apoiados pelas pesquisas já feitas pelo grupo para uso em dados sensíveis e protegidos jurídicos). Combinada essa base ética e regulatória, uma arquitetura de IA para apoiar o diagnóstico em populações vulneráveis, cuja ida a uma unidade de saúde seja difícil ou arriscada, pode contribuir, tanto no momento de isolamento social, quanto no aprimoramento de uma política de saúde permanente voltada à população vulnerável.
Breve Fundamentação Teórica
A literatura estabelece que a IA se refere a habilidade de reprodução não humana da capacidade de adquirir e aplicar diferentes habilidades e conhecimentos para resolver um dado problema, resolvendo-o, raciocinando e aprendendo com as situações (Shabbir e Anwer, 2015). Há suporte para o êxito desta reprodução, pois a inteligência envolve a aplicação de funções cognitivas, tais como linguagem, atenção, planejamento, memória e percepção. Todas estas funções executáveis artificialmente. Por sua vez, a machine learning, pode ser apresentada como um conjunto de métodos que pode detectar padrões em dados de forma automática, utilizando esses padrões para projetar dados futuros ou desempenhar formas de tomada de decisão (MURPHY, 2012). A machine learning é, portanto, uma subárea da IA destinada a permitir que computadores possam aprender por conta própria, utilizando algoritmo de identificação de padrões em um conjunto de dados fornecidos (MAINI;SABRI, 2017).
HARTMANN PEIXOTO, Fabiano; ZUMBLICK, Roberta Martins da Silva. Inteligência Artificial e Direito. Volume 1. Editora Alteridade. Curitiba. 2019.
Objetivos e Metas
O objetivo da pesquisa é produzir conteúdo, desenvolver standards ético-normativos e a arquitetura de IA de um gadget que permita o uso em pacientes vulneráveis, transmitindo dados e estabelecendo alertas nas duas interfaces (paciente-serviço médico), com base na detecção de padrões ajustados para o risco de Covid-19 (frequência respiratória, níveis de oxigenação, pulsação, temperatura corporal, pressão arterial).
META 1: fundamentação teórica para standards éticos
META 2: referenciais regulatórios (cumprimento de todas as leis envolvidas)
META 3: composição da base de dados de pesquisa e desenvolvimento
META 4: curadoria dos dados
META 5: identificação dos referenciais relevantes para aplicação de Machine Learning nos dados
META 6: arquitetura de IA com melhor desempenho para um gadget de uso em pacientes vulneráveis
META 7: protocolo de validação, verificação e controle
META 8: protocolo de segurança
META 9: certificação ética de desenvolvimento
META 10: publicação dos resultados
Metodologia
A metodologia utilizada observará o estabelecimento de um conjunto de valores e práticas que permitem o envolvimento direto de um sistema composto por especialistas (Direito, Medicina e Engenharias), com a possibilidade de construção de testes, revisões rápidas, adaptáveis às necessidades habituais de um do projeto (limitações de tempo e orçamento).
Assim, devido a urgência que se instaurou em um cenário de COVID-19 será adotada a metodologia Scrum (metodologia de desenvolvimento de software para projetos, desenvolvimento de produtos ou aplicativos).
Referencial:
HARTMANN PEIXOTO, Fabiano. Inteligência Artificial e Direito. METODOLOGIA DE PESQUISA E DESENVOLVIMENTO DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL E DIREITO. Alteridade: Curitiba, 2019.
Resultados Esperados
1- definição clara de um catálogo de referenciais éticos para o uso de IA em gadget de saúde;
2- identificação das leis e regulamentos envolvidos no uso de IA em gadget de saúde;
3- organização de um dataset com dados de saúde sobre o COVID-19;
4- desenvolvimento de protocolos de certificação (ética e segurança) para uso de IA em gadget de saúde;
5- arquitetura de aplicação de IA para o uso em gadget de saúde para pacientes vulneráveis;
Área de Conhecimento
Ciências da Saúde | Ciências Sociais Aplicadas | Engenharias
Subárea de Conhecimento
Há previsão de Orçamento proveniente na unidade acadêmica?
Não
Cronograma da Execução
1. Seleção e contratação de Pessoal - 15 dias
2. Definição de catálogo de referenciais éticos - 30 dias
3. Idenficação de leis e regulamentos - 15 dias
4. Organização de dataset - 30 dias
5. Curadoria dos dados - 60 dias
6. Desenvolvimento de protocolos de certificação ética e segurança - 90 dias
7. Desenvolvimento de arquitetura de IA aplicável em gadget - 180 dias
8. aplicação da Certificação ética -270 dias
9. aplicação da Certificação de segurança - 240 dias
10. submissão de resultados - até o final dos 12 meses.
Tempo total de execução previsto
12
Categoria do Projeto
Aplicativos, plataformas e algoritmos | Aspectos sociais, econômicos e ambientais