Monday 11 December 2017

Mudança média clínica química


Controle de qualidade estatística em analisadores de hematologia O controle de qualidade estatística realizado em analisadores de hematologia tem muitas diferenças importantes a partir das técnicas correspondentes nos analisadores de química clínica. Essas diferenças são devidas a razões como a alta estabilidade da tecnologia de citometria, a pequena variação biológica de alguns parâmetros de hematologia, os frascos de reagentes grandes e o pequeno período de duração dos controles de hematologia. Por causa das razões acima mencionadas, os gráficos de Levey-Jennings em analisadores de hematologia são diferentes dos gráficos correspondentes em química clínica. Por exemplo, as tabelas de hematologia Levey-Jennings têm apenas três linhas (limites superior e inferior e linha central). A razão é que esses gráficos de Levey-Jennings não são criados estatisticamente a partir de uma distribuição normal de dados de controle de qualidade anteriores, o que não é possível por causa da variação muito pequena dos valores de controle de qualidade de hematologia. Nos analisadores de hematologia, os limites de controle superior e inferior atuam como limites de especificações no controle de qualidade do setor. A pequena variação da biologia de muitos parâmetros de hematologia fez com que muitos pesquisadores estabelecessem métodos de controle de qualidade baseados apenas nos resultados dos pacientes. Esses parâmetros adequados são os índices de eritrócitos (MCV, MCHC, MCV) com a menor variação biológica (devido não só à biologia, mas principalmente à técnica de analisadores de hematologia). Esses atributos inspiraram Brian Bull (um Hematologista Americano) para estabelecer um novo método de controle de qualidade amplamente conhecido como algoritmo Bulls. O algoritmo Bulls (também conhecido como método) detecta erros sistemáticos em MCV, MCHC e MCV e conseqüentemente em HgB, Hct e RBC. Seu método é uma espécie de média móvel. Sua principal idéia é estimar o valor médio dos últimos vinte pacientes, incluindo o valor médio do lote dos vinte valores anteriores. O próprio algoritmo é uma equação bastante complicada que elimina os valores atípicos e estima a média móvel dos últimos vinte valores. O algoritmo Bulls foi provado bastante eficaz na detecção de pequenos erros sistemáticos (quase 1) não apenas nos índices de eritrócitos, mas também em quase todos os parâmetros de hematologia. Ele usa todos os dados dos pacientes sem exceção. O último fato fez do algoritmo Bulls o método de controle de qualidade mais barato em medicina de laboratório. As amostras de controle de qualidade de hematologia duram apenas 20 30 dias e são muito caras, quando, por outro lado, as amostras de sangue total são estáveis ​​na geladeira por 24 horas. Esses fatos levaram alguns pesquisadores a encontrar métodos que se baseiam na análise repetitiva de amostras de pacientes. Estes métodos são conhecidos como espécimes de pacientes retidos. Em 1988, Cembrowski (químico clínico canadense) estabeleceu o método de espécimes de pacientes retidos mais efetivos. Baseou-se na análise repetitiva das mesmas amostras de pacientes entre dois dias sucessivos. Seu método é conhecido como mn lim. - Lim significa o limite de controle de qualidade. É igual ao dobro do desvio padrão da análise repetitiva (2 x SD). - n representa o número de amostras de pacientes que serão analisadas duas vezes. - m representa a porção de n número de amostras que está permitido ficar fora dos limites (lim). As simulações estatísticas criadas por Cembrowski provaram a eficácia de seu método. Segundo ele, a melhor combinação de m, n e lim é 2, 3, 2 ou 23 2s. Concluindo, três métodos diferentes estão à disposição do laboratório para detectar os erros analíticos no laboratório de hematologia. Levey-Jennings detecta erros sistemáticos e aleatórios. Pelo contrário, o algoritmo Bulls e os espécimes de pacientes retidos detectam apenas erros sistemáticos, mas eles têm a vantagem do baixo custo. O laboratório pode escolher a melhor combinação dos três. T 949955949965964945943945 949957951956941961969963951. 922965961953945954942 921945957959965945961943959965 20, 2017Ensuring Quality Usando Algoritmos de TI - Exemplo de Caso: Laboratório de Patologia Química da Universidade de Michigan Selecione uma opção abaixo: Moderador: Nancy Haley, Consultora Clínica Sénior Siemens Healthcare Diagnostics, Inc. Tarrytown, NY Orador: Eric Vasbinder , Supervisor de Automação Química Laboratório de Patologia Química Sistema de Saúde da Universidade de Michigan Ann Arbor, MI Cada laboratório quer alcançar a mais alta qualidade possível e cumprir seu compromisso de entregar resultados oportunos. No entanto, o gerenciamento de Controle de Qualidade (QC) é freqüentemente um processo manual e demorado que pode aumentar o tempo de resposta e o risco de erros. Neste seminário web, Eric Vasbinder, do Hospital da Universidade de Michigan, demonstrará técnicas comprovadas, como médias móveis para pacientes e regras Westgard para gerenciar proativamente problemas de controle de qualidade. Ao longo dos últimos 7 anos, a Universidade de Michigan conseguiu reduzir os erros em 73 e aumentar o volume 97, mantendo o número de pessoal. Conheça as dicas e técnicas que funcionaram para este laboratório progressivo para otimizar o controle de qualidade com o sistema de gerenciamento de dados CentraLink. Saiba como gerir proativamente o QC e prevenir problemas antes de ocorrer. Avaliar o tamanho do lote correto para as médias móveis do paciente. Explore os benefícios de integrar o QC com seu processo de gerenciamento de dados; Identificar as áreas problemáticas e redirecionar amostras para minimizar o atraso e o desperdício de reagente; a Siemens continua fornecendo educação Oportunidades em temas-chave importantes para a ciência laboratorial e a implementação clínica. Convidamo-lo a participar de outros webinars da Siemens meetme. netsiemenswebinars e a verificar frequentemente. Como seu parceiro confiável, a Siemens está empenhada em ajudá-lo a permanecer na vanguarda da medicina de laboratório. Otimização de um programa de médias móveis usando um algoritmo de recozimento simulado: o objetivo é monitorar o processo, não os pacientes. CONTEXTO: a média móvel do paciente (MA) É uma estratégia de QC usando o resultado médio do paciente para monitorar continuamente o desempenho do ensaio. O desenvolvimento de protocolos MA sensíveis que detectam rapidamente erros sistemáticos (SE) é um desafio. Comparamos os protocolos MA estabelecidos usando um relatório publicado anteriormente como guia e demonstram o uso de um algoritmo de recozimento simulado (SA) para otimizar o desempenho do protocolo MA. MÉTODOS: Usando 400 dias de dados do paciente, desenvolvemos protocolos MA para 23 ensaios. Os protocolos MA desenvolvidos usando um relatório publicado anteriormente e nosso algoritmo SA foram comparados usando o número médio de amostras de pacientes afetadas até a detecção de erro (ANP ed). RESULTADOS: A comparação das estratégias demonstrou que os protocolos desenvolvidos com o algoritmo SA geralmente se mostraram superiores. Alguns analitos, como a proteína total, apresentaram melhora considerável, com SE positivo igual a 0,8 gdL detectado com ANP ed de 135 amostras usando o método anteriormente publicado, enquanto o algoritmo SA detectou esse SE com um ANP ed de 18. Nem todos os analitos demonstraram melhora similar Com o algoritmo SA. O fósforo, por exemplo, demonstrou apenas melhorias menores, com um SE positivo de 0,9 mgdL detectado com um ANP ed de 34 usando o método anteriormente publicado vs ANP ed de 29 usando o algoritmo SA. Nós também demonstramos um exemplo de detecção de SE em um ambiente ao vivo usando o algoritmo SA derivado dos protocolos MA. CONCLUSÕES: O algoritmo SA desenvolvido em protocolos MA está atualmente em uso em nosso laboratório e eles rapidamente detectam SE, reduzindo o número de amostras que requerem correção e melhorando a segurança do paciente. Existem inúmeras estratégias de QC que se baseiam em alterar a freqüência de análise de QC líquido para monitorar ensaios de química (1. 2). Apesar da consciência dessas estratégias, muitos laboratórios de química clínica medem apenas 2 concentrações de QC uma vez por 24 h. Esta frequência, embora suficiente para cumprir as regras da agência reguladora, é insuficiente para detectar rapidamente o erro sistemático (SE). 3 Como o SE pode se desenvolver a qualquer momento entre os eventos de QC, o SE pode ser despercebido por horas, afetando as centenas de resultados do paciente. O aumento da frequência de QC melhora a velocidade de detecção de SE, mas também aumenta o custo pelo consumo de material de QC, reagentes e tempo técnico necessário para executar e registrar resultados de QC. Em suma, embora a análise do material QC seja valiosa, ela fornece apenas um instantâneo do desempenho do ensaio. Os materiais de controle de qualidade também podem faltar a comutação ao soro nativo porque são fabricados pela adição de componentes exógenos a uma matriz de soro de base. Estes materiais QC podem diferir substancialmente do soro nativo e esta falta de comutabilidade pode mascarar a degradação no desempenho do ensaio (3 5). Devido a estas deficiências, algumas publicações propuseram monitorar o valor médio do paciente para os analitos de química como uma estratégia complementar de QC (6 13). As médias móveis (MA), ou, alternativamente, a média dos normais, podem detectar SE antes do próximo evento de QC, minimizando o número de resultados de pacientes não confiáveis ​​relatados. O primeiro artigo que propõe MA para analitos de química foi publicado em 1965 e os artigos subseqüentes refinaram o conceito, variando o número de amostras de pacientes em média, aplicando limites de truncamento (TLs) para excluir outliers ou usando cálculos de MA (EWMA) ponderados exponencialmente (6 13). O estabelecimento de protocolos MA exige a seleção dos limites de controle (CL), ou a magnitude SE tolerável, o número de resultados do paciente para a média (N) e as concentrações em que TL são colocadas para minimizar o efeito de outliers. Das técnicas anteriormente publicadas para selecionar N, exploramos a estratégia publicada em 1984 por Cembrowski e colegas (7). Nesta estratégia, N é selecionado calculando a proporção da população de pacientes SD (Sp) para a imprecisão analítica SD do ensaio (Sa). A razão SpSa quando aplicada com um nomograma na mesma publicação orienta a seleção de N (7). Desenvolvemos protocolos MA usando esta estratégia para vários analitos de química e alavancamos, adicionalmente, um algoritmo de recozimento simulado (SA) para otimizar nossos protocolos MA. O desempenho de protocolos desenvolvidos usando ambas as estratégias foi avaliado simulando condições de SE em dados históricos de pacientes e calculando o número médio de amostras de pacientes afetadas até a SE induzida (ANP ed). Materiais e Métodos DADOS DO PACIENTE E TESTES AVALIADOS Quatrocentos dias de resultados do paciente coletados com o programa Data Innovations Middleware versão 8.10 (Data Innovations) foram armazenados como arquivos de valores separados por vírgulas de fevereiro de 2017 a março de 2017 e compilados através da versão Matlab R2017a (Mathworks) . As amostras de pacientes com 18 anos de idade, o departamento de emergência (ED) e a clínica de hematologia foram excluídos da análise porque os pacientes pediátricos têm diferenças relacionadas à idade em muitos analitos. Os pacientes clínicos de hematologia freqüentemente apresentam proteína sérica anormal ou alta ou concentração de cálcio e pacientes com DE Podem apresentar alterações na base do ácido e eletrólitos que diferem substancialmente de pacientes estáveis ​​ou ambulatoriais estáveis. Após a exclusão do valor acima e todos os valores QC e duplicados do paciente, a matriz final continha 1915999 resultados. Ensaios que passaram através do middleware com volumes diários de teste de amostras de gt100, bem como proteína C-reativa de alta sensibilidade (hsCRP), tiroxina livre, ferro e lipase, que tiveram volumes médios semanais de aproximadamente 300, 230, 200 e 150 amostras, Respectivamente, foram investigados para adequação de MA (Tabela 1). Os analitos com grandes diferenças de sexo, como a creatina quinase, não foram investigados porque as flutuações na distribuição do sexo produzem mudanças imprevisíveis em valores médios não relacionados ao desempenho analítico. Após a exclusão da clínica pediátrica, clínica de hematologia e pacientes com ED, o menor número de resultados para ensaios investigados foi para lipase com 4101 resultados e o maior foi cloreto com 139180 resultados. Comparação de protocolos orientados vs algoritmo otimizado. Uma DETERMINAÇÃO MANUAL DE MOVIMENTAÇÃO DE PARÂMETROS MÉDIOS MA CLs foram determinados calculando o valor de mudança de referência (RCV) usando a fórmula RCV. Onde Z 1.96 para 2 SD mudou em uma distribuição de 2 caudas CV a 2 CV do ensaio CV i 2 dentro de variação biológica individual. CL foram, portanto, o valor médio do paciente, o valor RCV. O CV analítico foi determinado pela revisão dos dados históricos do material QC mais próximo do valor médio do paciente para cada ensaio. A variação biológica dentro do indivíduo foi obtida a partir do banco de dados de variação biológica desejável compilado em WestGard (14). O comprimento do filtro ou N foi determinado como descrito por Cembrowski et al. (7). Resumidamente, os dados do paciente foram plotados em uma tabela de distribuição de freqüência e meios de ensaio individuais e Sp calculado. Sa foi determinado através da revisão de dados de QC históricos mais próximos do valor médio do paciente para cada ensaio. A razão SpSa foi calculada e arredondada para o número inteiro mais próximo antes da aplicação ao nomograma (7). As populações ambulatoriais e ambulatoriais foram analisadas separadamente para alguns analitos. Para esses dados, os dados foram subdivididos em matrizes de pacientes ambulatoriais e ambulatoriais, plotadas em tabelas separadas de distribuição de freqüência e meios ambulatoriais e ambulatoriais e Sp determinado antes do cálculo da relação SpSa. Os TLs servem para excluir valores extremos do cálculo do MA. Os valores que cai fora dos TLs não estão incluídos no valor médio calculado do paciente. Quando a distribuição de dados foi aproximadamente simétrica, as TLs foram colocadas 4 SD a partir do valor médio do paciente, uma prática influenciada pelo treinamento do fornecedor do middleware. O valor TL em distribuições distorcidas foi o ponto de inflexão definido pelo usuário para o qual a curva de distribuição de freqüência começou a se nivelar. Esse valor foi definido pela inspeção visual da distribuição e nenhuma tentativa foi feita para otimizar. A porcentagem de valores de pacientes excluídos pelos TLs foi variável e variou de um mínimo de 0,3 ferro a uma concentração de 170 gdL a uma alta de 58 por albumina a uma concentração de 3,6 gdL. As porcentagens de amostras de pacientes excluídas tanto para TLs derivadas manualmente quanto para algoritmos SA são listadas na Tabela 1 no Suplemento de Dados que acompanha a versão online deste artigo em clinchem. orgcontentvol62issue10. AVALIAÇÃO DO PERFORMANCE DE PROTOCOLO DE MÉDIA EM MOVIMENTO A ANP ed foi calculada induzindo um passo de mudança analítico na matriz de dados de analitos. O SE foi induzido após as primeiras 100 amostras de pacientes. O número de amostras de pacientes afetadas por SE foi calculado como o número de amostras de pacientes individuais caindo entre o ponto de indução de erro e o primeiro valor de MA que excede o CL. Valores de amostra que excedem os TLs foram excluídos do cálculo do valor médio do paciente, mas foram incluídos no número de amostras afetadas pelo SE. Este processo foi repetido com SE induzida para pontos de dados subsequentes e o número de resultados de pacientes afetados em média para calcular ANP ed. O número total de iterações para calcular o ANP ed dependia do tamanho do conjunto de dados para cada analito, sendo o menor de 40 para lipase e o maior dos quais como 1390 para cloreto. Por tentativa e erro, descobrimos que a submamamação por um intervalo de 100 resultados permitiu uma variação mínima de ANP ed versus o custo computacional da subamostragem mais freqüente. Os deslocamentos analíticos foram induzidos como frações de CL e aumentaram até 4 vezes CL. O ANP ed para SE igual a CL foi usado para comparar desempenho em diferentes protocolos. Outros perfis de erro, como uma deriva gradual que refletiriam melhor o desenvolvimento SE natural, não foram tentados. OPTIMIZAÇÃO POR ALGORITMO DE ANNEALING SIMULADO Para melhorar o desempenho do protocolo inicial, implementamos um algoritmo SA em MatLab que variou estocticamente os valores de N e TLs superiores e inferiores (TL H e TL L. Respectivamente), mantendo a constante CL. O algoritmo SA foi projetado para encontrar valores ideais de N, TL H e TL L através da minimização de uma função de custo dada como: (1) onde é um fator de ponderação definido pelo usuário projetado para forçar uma baixa taxa de erro falso positivo (taxa de FP ). Para todos os analitos, foi arbitrariamente definido em 10000 para penalizar a taxa de FP a um custo de um ANP ed maior. Nesta análise, a taxa de FP foi zero para todos os protocolos e ANP ed é tipicamente um valor entre 0 e os 100s baixos. A seleção de lt10000 pode ter resultado em uma ANP mais baixa, mas provavelmente também resultou em uma taxa de FP maior, porém isso não foi testado. A seleção de um gt10000 também pode afetar ANP ed, mas em nosso conjunto de dados, um de 10000 resultou em protocolos com uma taxa de FP igual a zero e, como tal, um maior provavelmente não produziria mudanças substanciais no desempenho. Nós subdividimos os 400 dias de dados em dez conjuntos de 40 dias e otimizados através do algoritmo SA para uma validação cruzada de 10 vezes. Cada conjunto de condições otimizadas foi testado em relação ao conjunto de dados completo. Para a simplicidade de relatórios, relatamos apenas dados do bloco 10, a menos que as condições de otimização no bloco 10 produzam um protocolo que permitisse que a média excedesse o CL dentro das primeiras 100 amostras de pacientes do conjunto de dados completo. Quando isso ocorreu, relatamos o desempenho do bloco 9. Esse algoritmo SA geralmente alcançou convergência em 20003000 iterações, enquanto uma pesquisa completa de todas as combinações possíveis de N, TL H. E TL L exigiria, pelo menos, 50000-lições para enumerar o espaço de busca típico dos parâmetros. Os protocolos MA projetados neste estudo são empregados em nosso laboratório usando Data Innovations Middleware Versão 8.13. DESEMPENHO DOS PROTOCOLOS GUIADOS DE SPSA Para cada analito listado na Tabela 1, estabelecemos as seguintes características do protocolo: valor médio do paciente, CL, N e TL conforme descrito em Materiais e Métodos. Usando MatLab, calculamos ANP ed para um SE igual ao CL para um dado analito. A ANP ed para esses protocolos iniciais variou de um mínimo de 22 para o colesterol HDL para um máximo de 7249 para bilirrubina total (Tabela 1, protocolos originais). Houve 5 analitos, alanina aminotransferase (ALT), nitrogênio ureico no sangue (BUN), cálcio sérico, hsCRP, glicose e hormônio estimulante da tireóide (TSH), para os quais nossos protocolos originais não conseguiram detectar o SE igual ao CL. O fraco desempenho de alguns protocolos foi hipotetizado como atribuível às diferenças na distribuição de analitos entre pacientes hospitalizados e ambulatoriais, como aqueles para cálcio sérico (Fig. 1) com a concentração média de cálcio hospitalar igual a 8,6 mgdL e média ambulatória igual a 9,6 MgdL. Essas populações são amplamente separadas pelo tempo, com populações internadas predominando no início da manhã e populações ambulatoriais que dominam o resto do dia. A separação temporal de pacientes ambulatoriais e ambulatoriais é demonstrada em uma figura animada disponível como on-line. 1. Fig. 1. Gráficos de distribuição de frequência. Os gráficos de distribuição de frequência durante 400 dias de dados do paciente para (A), sódio, (B), potássio, (C), cálcio, (D), bicarbonato, (E), AST, (F), creatinina, (G) Proteína total e (H) livre-tiroxina. A distribuição de laranja representa todos os dados do paciente, o roxo representa o ambulatório e o subconjunto verde do paciente internado de todos os pacientes. Para melhorar a detecção de SE, criamos 2 protocolos MA adicionais para analitos selecionados para monitorar populações ambulatoriais e internadas separadamente. Os protocolos separados produziram reduções dramáticas em ANP ed para cálcio e proteína total (Tabela 2). Separar populações não melhorou universalmente ANP ed. Os analitos com distribuições de população semelhantes tiveram uma melhoria marginal da ANP ed ou permaneceram aproximadamente iguais. Por outro lado, para alguns analitos como a creatinina, a ANP ed aumentou após a separação das populações ambulatoriais e ambulatoriais. Execução de protocolo guiado: detecção de erro sistemático. UM DESEMPENHO DE PROTOCOLOS OPTIMIZADOS Para maximizar a detecção SE de nossos protocolos MA, empregamos um algoritmo SA em MatLab para selecionar novos N e TL para todos os testes na Tabela 1. O algoritmo SA produziu protocolos com diminuições consideráveis ​​em ANP ed (Tabela 1. coluna direita ), Que foram mais notáveis ​​para os analitos com grandes diferenças nas populações ambulatoriais e ambulatoriais, como cálcio e proteína total e aqueles com distribuições distorcidas, como aspartato aminotransferase (AST), creatinina e tiroxina livre. Como pode ser observado na Tabela 1, o valor médio do paciente para alguns analitos mudou após a otimização um efeito atribuível a TLs diferentes selecionados pelo algoritmo SA, porque a inclusão ou exclusão de outliers influenciou o valor médio calculado. Para comparar a detecção de SE em estratégias de MA, relatamos os valores de ANP ed para SE igual ao CL de cada ensaio em nosso estudo (Tabela 1). Os incrementos de SE menores menores que o CL também foram testados para cada ensaio. Na Fig. 2 o ANP ed dos ensaios selecionados é plotado contra aumento do SE. Nesses gráficos, a ausência de SE induzida é plotada no meio do eixo x e o aumento do SE positivo e negativo é traçado como valores crescentes e decrescentes, respectivamente. As rupturas nas curvas ANP ed indicam condições em que o protocolo MA não detectou SE. Como esperado, o ANP ed diminuiu à medida que aumentou a magnitude SE, indicando que os protocolos MA detectaram SE mesmo que a magnitude fosse menor que o CL (Fig. 2). Para alguns analistas, o ANP ed começou a aumentar novamente à medida que o SE cresceu mais do que o CL. Esse fenômeno se deveu a um número crescente de resultados que caíram fora da TL como o SE aumentou. Embora este fenômeno tenha sido mais aparente em alguns protocolos originais (ver sódio, Fig. 2 A), também ocorreu para alguns protocolos após a otimização do algoritmo SA (Fig. 2). FIG. 2. Número médio de pacientes afetados até erro detectado como função da magnitude do erro sistemático induzido. Estes gráficos demonstram o ANP ed de (A), sódio, (B), potássio, (C), cálcio, (D), bicarbonato, (E), AST, (F), creatinina, (G), proteína total, E (H), livre-tiroxina para aumentar a magnitude do erro sistemático. As curvas definidas pelos quadrados vermelhos representam os protocolos MA originais e os diamantes azuis representam os protocolos desenvolvidos usando o algoritmo SA. Em cada gráfico, os CLs do ensaio são representados por um quadrado aberto ou diamante, respectivamente. Consulte a versão on-line para uma versão colorida desta figura. Embora ANP ed tenha diminuído após a otimização, observamos que a detecção de SE positivo e negativo não foi igual. Para o cálcio, um SE de 1,0 mgdL foi detectado com uma ANP ed de 55 amostras, um SE negativo de 1,0 mgdL produziu uma ANP ed de 161 amostras (Tabela 3). Para minimizar essa assimetria, separamos as populações ambulatoriais e internadas e re - timizadas. O TSH, a tiroxina livre, o hsCRP e o colesterol HDL foram excluídos da subanálise porque o número de amostras internas em nosso conjunto de dados foi baixo. Desempenho do protocolo otimizado: separação das populações ambulatoriais e internadas. Uma Otimização de pacientes ambulatoriais e ambulatoriais compensou novas reduções na ANP para a maioria dos analitos (Tabela 3). Tal como acontece com os protocolos MA iniciais, foram observadas melhorias notáveis ​​na ANP ed para analitos com grandes diferenças médias entre populações. Após a otimização, todos os protocolos MA em nosso laboratório foram atualizados para coincidir com os parâmetros selecionados através do algoritmo SA. DETECÇÃO DO SE EM UM AMBIENTE VIVO Os protocolos MA definidos acima foram utilizados por aproximadamente 2 anos, durante o qual eles detectaram vários eventos SE. Na Fig. 3 nós compartilhamos um evento representativo. Nesta imagem, obtida do middleware Data Innovations, um eletrodo seletivo de íons de sódio (quadrados marrons ISE) experimentou uma condição SE positiva que aumentou a concentração média de sódio em gt4 mmolL (seta). Os outros ISE de sódio que não experimentam SE permanecem mais próximos da média. Após a recalibração, a concentração média de sódio retrocedeu para a média alvo. Neste exemplo da vida real, a condição SE foi desenvolvida logo após a calibração de rotina e QC. Como a condição SE foi rapidamente detectada, apenas 14 amostras de pacientes necessitaram de correção. Se confiássemos exclusivamente nos métodos tradicionais de controle de qualidade, muitas outras amostras de pacientes poderiam ter sido afetadas. FIG. 3. Detecção de erro sistemático em um ambiente ao vivo. Captura de tela do protocolo ISE de sódio que demonstra a detecção de erro sistemático (flecha) em 1 de 5 ISE de sódio em nosso laboratório. Os símbolos separados e as combinações de cores representam diferentes ISEs que realizam medições de sódio. Cada símbolo individual neste protocolo apenas em pacientes ambulatoriais de sódio representa a média de 14 resultados de pacientes. A linha verde horizontal no meio do gráfico representa a concentração média de sódio neste protocolo. As linhas vermelhas horizontais representam os CLs do protocolo e os amarelos são iguais a metade dos CLs. Consulte a versão on-line para uma versão colorida desta figura. Discussão Demonstrou-se que um algoritmo SA gera protocolos MA que rapidamente detectam SE, minimizando o número de resultados de pacientes não confiáveis ​​relatados. Embora o desempenho dos protocolos otimizados para o algoritmo SA variou, fomos capazes de melhorar a detecção do SE, desenvolvendo protocolos ambulatoriais e ambulatoriais separados. O desempenho dos protocolos de AM geridos pelo algoritmo SA foi substancialmente melhor do que o de nossos protocolos originais. A estratégia da relação SpSa pode ser usada para gerar protocolos MA, no entanto, esta estratégia é mais adequada para analitos com distribuições normais. A comparação do nosso estudo com um publicado anteriormente demonstra que nossa estratégia de algoritmo SA detecta SE com um ANP ed similar (8). Ao contrário de outras estratégias relatadas, o nosso não gerou distribuições normais de dados (6) ou selecionou aleatoriamente valores de uma distribuição (8), mas otimizou os protocolos na configuração das variações naturais de dados do dia a dia. Para minimizar a taxa de FP, definimos o fator de ponderação para 10000 em nossa função de custo de algoritmo SA. Isso forçou a seleção de parâmetros que reduziram a taxa de FP para zero para todos os protocolos. Uma taxa de FP de zero não é estatisticamente possível e é um artefato de otimizar nossos protocolos para o conjunto de dados de 400 dias. A aplicação desses parâmetros a outro conjunto de dados renderia uma taxa de FP quantificável. Anecdotalmente, experimentamos eventos de erro falso com esses protocolos em um ambiente ao vivo. Nem todo teste de química é passível de monitoramento de MA. A detecção de SE para distribuições distorcidas foi fraca (Fig. 2 e Tabela 3) e, embora o algoritmo SA melhorou a detecção de SE, existem possibilidades de melhoria adicional. O mau desempenho da glicose MA pode ser devido à nossa incapacidade de separar os resultados de jejum e não ferrosos. Para BUN, a limitação provável foi nosso objetivo CL estreito de 2 mgdL médio derivado da RCV. Se tivéssemos selecionado métodos alternativos para determinar CL, como o Sp, podemos ter obtido uma melhor ANP ed. Mas para a consistência do estudo, isso não foi investigado. Outras técnicas que podem melhorar a detecção do SE, como a análise da mediana móvel e EWMA (6. 9. 15), embora disponíveis no software Data Innovations v.8.13, não foram investigadas. Escolhemos usar o algoritmo SA por 4 razões. Em primeiro lugar, dado um conjunto de dados suficientemente grande e um determinado conjunto de N e TLs, o CL poderia ser ajustado para o valor máximo e mínimo do paciente médio na ausência de SE induzido a minimizar ANP ed. No entanto, a inclusão de CL na otimização de SA aumentaria o tamanho do espaço de busca em aproximadamente 2 ordens de grandeza. Dadas as limitações técnicas do hardware do nosso computador, não fomos capazes de tentar este estudo. Em segundo lugar, o truncamento de dados é um processo inerentemente não linear, que não pode ser expresso em uma solução fechada. Em terceiro lugar, devido ao método de amostragem utilizado, os resultados de ANP ed exibirão variações estocásticas sobre a média como função do ponto inicial e do intervalo. Em quarto lugar, porque os dados de laboratório são registrados de forma discreta (por exemplo, 1.6, 1.7, 1.8), nosso espaço de busca para TL é similarmente discreto (por exemplo, 1.65, 1.75, 1.85), simplificando assim o tamanho da busca potencial de valores ótimos. Uma limitação de estudo é a exclusão de amostras de pediatria, ED e clínica de hematologia. Esta decisão foi tomada com base em observações anteriores de que as concentrações de muitos analitos desses pacientes diferem substancialmente das de outras populações. Na nossa experiência, os pacientes da unidade de hematologia têm valores mais baixos de proteínas e cálcio. Como usamos equipe de flebotomia em pacientes internados, tendemos a receber essas amostras de pacientes em massa e os valores médios de proteína e cálcio totais podem ser marcadamente influenciados por este pequeno grupo de pacientes. Este efeito é bastante pronunciado que alguns pacientes analisados ​​simultaneamente podem desencadear um evento de detecção falsa. Para mitigar este efeito, pode ser desenvolvido um protocolo MA que utiliza uma concentração média de analito por hora do dia. No entanto, o atual software MA que empregamos não pode acomodar esta estratégia. Do ponto de vista prático, a confiabilidade e a sensibilidade de um tal protocolo dependeriam de um cronograma de flebotomia invariável. Os flebotomistas precisariam desenhar cada unidade ao mesmo tempo diariamente porque a variação da programação poderia afetar o desempenho do protocolo. Com base nessas limitações, nossa estratégia de excluir certas populações de pacientes serve como uma alternativa aceitável. Como a nossa estratégia de otimização excluiu esses pacientes, usamos de forma similar uma série de filtros de exclusão para excluir esses valores de pacientes dos cálculos MA usados ​​em nosso middleware. Uma limitação adicional à nossa estratégia de usar dados em formato nativo é que não podemos excluir a possibilidade de que houve eventos SE não detectados em nosso conjunto de dados. O efeito provável de incluir dados afetados pela SE em nossa otimização seria menor sensibilidade ao protocolo. Também induziamos o SE a usar uma estratégia de mudança gradual, em vez de uma degradação gradual no desempenho do ensaio, como pode ocorrer em um ambiente do mundo real. Um passo-deslocamento representa o melhor cenário para detectar SE e pode-se supor que a detecção SE demoraria mais se o desempenho do ensaio fosse gradualmente degradado, mas essa suposição não foi testada. Ambas as limitações são dignas de estudo futuro. Uma publicação recente propôs um lançamento da estratégia de MA posterior, na qual a primeira amostra analisada não é liberada até o restante do bloco MA ser analisado e não ultrapassar o CL (9). Esta estratégia deve diminuir a probabilidade de relatar resultados errados, ao mesmo tempo em que reduz os custos da análise de QC freqüente (9). No entanto, o lançamento da estratégia de atraso inicialmente atrasaria o relatório do primeiro resultado. Para um grande laboratório de referência, esse atraso adicional seria inconseqüente devido a um alto volume de teste diário. O lançamento da estratégia de trás, no entanto, não seria prático para o laboratório hospitalar porque o primeiro resultado pode estar pendente várias horas enquanto o restante do bloco é coletado e analisado. A estratégia padrão de recalcular o valor médio à medida que cada novo resultado é liberado pode produzir uma correção mais freqüente dos resultados do paciente do que a versão da estratégia de trás, mas nossos dados que demonstram valores baixos de ANP ed indicam que SE pode ser detectado rapidamente, minimizando o número de amostras requiring reanalysis and correction. To our knowledge this is the first study to use an SA algorithm to optimize MA protocols. We show that separate analysis of ambulatory and inpatient populations can improve SE detection. We have used this strategy to successfully establish an MA program in a hospital based laboratory serving both hospitalized and ambulatory patient populations. Our MA protocols continuously monitor assay performance and enable SE detection in advance of the next scheduled QC event, minimizing the number of affected patient samples. 3 Nonstandard abbreviations: SE. systematic error MA. moving average TL. truncation limit EWMA. exponentially weighted MA CL. control limit N. number of patient results to average Sp. patient population SD Sa. analytic imprecision SD SA. simulated annealing ANP ed . average number of patients affected until error detected ED. emergency department hsCRP. high sensitivity C-reactive protein RCV. reference change value TL H . high truncation limit TH L . low truncation limit FP rate . false positive rate BUN. blood urea nitrogen TSH. thyroid stimulating hormone AST. aspartate aminotransferase ISE. ion-selective electrode. (see editorial on page 1299 ) Author Contributions: All authors confirmed they have contributed to the intellectual content of this paper and have met the following 3 requirements: (a) significant contributions to the conception and design, acquisition of data, or analysis and interpretation of data (b) drafting or revising the article for intellectual content and (c) final approval of the published article. Authors Disclosures or Potential Conflicts of Interest: Upon manuscript submission, all authors completed the author disclosure form. Disclosures andor potential conflicts of interest: Employment or Leadership: None declared. Consultant or Advisory Role: None declared. Stock Ownership: None declared. Honoraria: M. A. Cervinski, AACC and Lab RevolutionG2 Intelligence. Research Funding: None declared. Expert Testimony: None declared. Patents: None declared. Role of Sponsor: No sponsor was declared. Received for publication March 2, 2017. Accepted for publication July 6, 2017. 2017 American Association for Clinical Chemistry References Parvin CA . Assessing the impact of the frequency of quality control testing on the quality of reported patient results. Clin Chem 2008 54. 2049 54.Parvin CA , Gronowski AM . Effect of analytical run length on quality-control (QC) performance and the QC planning process. Clin Chem 1997 43. 2149 54.Rej R , Jenny RW , Bretaudiere JP . Quality control in clinical chemistry: characterization of reference materials. Talanta 1984 31. 851 62.Miller WG , Erek A , Cunningham TD , Oladipo O , Scott MG , Johnson RE . Commutability limitations influence quality control results with different reagent lots. Clin Chem 2017 57. 76 83.Carobene A , Guerra E , Ceriotti F . A mechanism-based way to evaluate commutability of control materials for enzymatic measurements. The example of gamma-glutamyltransferase. Clin Chim Acta 2017 424. 153 8.Linnet K . The exponentially weighted moving average (EWMA) rule compared with traditionally used quality control rules. Clin Chem Lab Med 2006 44. 396 9.Cembrowski GS , Chandler EP , Westgard JO . Assessment of average of normals quality control procedures and guidelines for implementation. Am J Clin Pathol 1984 81. 492 9.Ye JJ , Ingels SC , Parvin CA . Performance evaluation and planning for patient-based quality control procedures. Am J Clin Pathol 2000 113. 240 8.Fleming JK , Katayev A . Changing the paradigm of laboratory quality control through implementation of real-time test results monitoring: for patients by patients. Clin Biochem 2017 48. 508 13.Hoffmann RG , Waid ME . The average of normals method of quality control. Am J Clin Pathol 1965 43. 134 41.Reed AH . Use of patient data for quality control of clinical laboratory tests. Clin Chem 1970 16. 129 34.Woo J , LeFever D , Winkelman JW . Use of average of normals quality control procedure in the detection and resolution of assay discrepancies. Am J Clin Pathol 1988 89. 125 9.Westgard JO , Smith FA , Mountain PJ , Boss S . Design and assessment of average of normals (AON) patient data algorithms to maximize run lengths for automatic process control. Clin Chem 1996 42. 1683 8.Westgard QC . Desirable biological variation database specifications. westgardbiodatabase1.htm ( Accessed March 2017 ).Wilson A , Roberts WL , Pavlov I , Fontenot J , Jackson B . Patient result median monitoring for clinical laboratory quality control. Clin Chim Acta 2017 412. 1441 6.

No comments:

Post a Comment