Em formação

Por que usamos sinais relativos e não sinais absolutos com EEG?

Por que usamos sinais relativos e não sinais absolutos com EEG?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

A maioria das máquinas de EEG usa um sistema baseado em amplificadores diferenciais para melhorar o sinal, um amplificador diferencial básico tem 2 entradas e uma saída. o dispositivo recebe 2 sinais e produz a diferença entre eles (veja este vídeo). Resumindo, a saída é a diferença entre 2 sinais e o amplificador diferencial descarta o resto do sinal. Mas eu acho que possivelmente a forma atual de registrar EEG poderia encorajar a perda de dados devido SOMENTE à procura de diferenças nos sinais de EEG em vez de avaliação analítica de sinais absolutos.

Por que usamos sinais relativos e não sinais absolutos com EEG? Houve alguma tentativa de usar sinais absolutos?


Uma tensão é, por definição, uma diferença de potencial entre 2 eletrodos.

No entanto, para registrar um sinal em 1 eletrodo que dificilmente é afetado pelo outro eletrodo de referência, um eletrodo distante pode ser usado, conhecido como registro monopolar. Em contraste, quando 2 eletrodos são colocados próximos um do outro no local de interesse, é referido como um registro bipolar. Em EEGs, tem tudo a ver com amplificadores diferenciais e rejeição de modo comum, que você já sugeriu na pergunta.

Sem entrar nos detalhes técnicos dos opamps, posso dizer que os amplificadores diferenciais, idealmente, rejeitam o sinal comum nos eletrodos e mantêm a tensão diferencial. Na verdade, a maioria dos artefatos é rejeitada, enquanto o sinal é mantido. Os artefatos costumam estar espalhados pelo couro cabeludo, como os artefatos musculares, e são compartilhados entre os eletrodos, enquanto o sinal de interesse está confinado principalmente às áreas locais do couro cabeludo.

Em EEG, gravações monopolares são normalmente usadas, basicamente porque artefato suficiente é rejeitado, mas o sinal é menos distorcido. Além disso, e não menos importante, as montagens de eletrodos EEG padrão permitem a dedução aritmética de registros bipolares de registros monopolares, enquanto o inverso não é possível (Saab, 2009).

No entanto, muitos sinais eletrofisiológicos, mesmo aqueles intimamente relacionados ao EEG, são frequentemente registrados usando registros bipolares, porque ou o sinal é muito baixo para ser registrado ou o artefato é muito grande (por exemplo, Diez et al, 2010; Stronks et al., 2009; Stronks et al., 2013).

Referências
- Diez et al., Annu Int Conf IEEE Eng Med Biol Soc (2010): 5803-6
- Saab, Biofeedback (2009); 36(4): 128-33
- Stronks et al.,IOVS (2013); 54:3891-901
- Stronks et al., Doc Ophthalmol (2016); 132:1-15


EEG mede a tensão. Por definição, a tensão é um potencial elétrico diferença. Não há significado de voltagem "absoluta", é sempre uma diferença.

Sim, as pessoas "tentam" medir uma tensão com apenas um contato o tempo todo, isso acontece sempre que há um canal rompido ou falha de um fio terra. O resultado é uma amplificação de quaisquer outros sinais ambientais que possam ser captados, dominados pela corrente CA ("ruído de ciclo 60/50"), ondas de rádio e outras interferências eletromagnéticas. Um bom fio terra é necessário para medir os pequenos sinais do cérebro; algo como um "aterramento" não seria nem de longe suficiente.

Você pode obter medidas mais locais de tensão usando eletrodos próximos e medindo o potencial entre eles, em vez de cada um contra algum outro "aterramento". Normalmente, são eletrodos de profundidade no cérebro.


4. Discussão

Neste artigo, analisamos os dados de EEG disponíveis ao público em estados de sono e vigília para medir a previsibilidade dos sinais em condições conscientes (vigília e sono REM) e inconscientes (SWS). Descobrimos que a previsibilidade dos sinais de EEG se correlacionou com o grau de consciência. Esses resultados apóiam nossa hipótese anterior de que a previsível dinâmica interna do cérebro é uma condição necessária da consciência. A seguir, discutiremos questões potenciais e observações interessantes de nosso estudo, e proporemos aplicações potenciais de nossa descoberta à percepção do tempo e neurorobótica.

Existem limitações potenciais de nossa abordagem, conforme mencionamos brevemente na seção Materiais e Métodos. Medimos a previsibilidade no intervalo entre os picos nos sinais de EEG, não diretamente nos sinais de EEG brutos. A previsibilidade medida em sinais de EEG brutos não mostrou nenhuma diferença significativa entre as três condições: acordado, REM e SWS (resultados do piloto, dados não mostrados). Isso pode ser devido a vários fatores, um dos quais é a natureza dos sinais de EEG. Por exemplo, os sinais de EEG são misturas ponderadas de atividade elétrica em andamento no cérebro. Além disso, níveis geralmente reduzidos de atividade durante SWS podem resultar em sinais mais planos (mudando lentamente e de baixa amplitude, ainda mais confundidos pela mistura) que podem ser mais fáceis de extrapolar. Com base nessa observação, analisamos inicialmente os dados do trem de pico de neurônio único obtidos durante os estados de sono e vigília por Steriade et al. (2001). Usando os dados, usamos o mesmo preditor de rede neural feed-forward para prever o intervalo entre picos (ISI) sob condições de vigília, REM e SWS. Nossos resultados foram consistentes com o que relatamos aqui, no entanto, o conjunto de dados era muito pequeno (na ordem de 100 picos por condição, em comparação com milhares de picos nos dados de EEG), portanto, não pudemos tirar conclusões significativas. No entanto, como descobrimos que o uso de eventos discretos (picos) em vez da forma de onda contínua deu resultados promissores, tentamos recuperar esses eventos nos dados do EEG que nos levaram à medida do intervalo entre os picos (IPI). (Observe que o acima é simplesmente nossa motivação para usar EEG IPI, e não uma alegação de que estamos extraindo informações de tempo de pico dos sinais de EEG.) Além dos dados dinâmicos que discutimos acima (EEG bruto, IPI baseado em EEG ou ISI ), o potencial relacionado a eventos (ERP) poderia ter sido analisado. No entanto, os ERPs são, por definição, relacionados a eventos, portanto, estão ancorados em tarefas ou estímulos específicos. Além disso, os ERPs são médias de um grande número de tentativas. Devido a essas razões, os ERPs podem não ser adequados para estudar os estados de linha de base contínuos, como acordado, sonhando ou dormindo, embora possam ser eficazes na detecção de eventos de transição entre esses estados contínuos (Ogilvie et al., 1991).

Um resultado bastante inesperado foi que o erro de predição de IPI foi menor para o sono REM do que para o estado de vigília, e significativamente [t-teste, p & # x0003c 10 & # x022126 em todos os casos (exceto REM vs. AWAKE para o sujeito 4)]. Isso significa que os indivíduos ficam mais conscientes durante o sono REM do que quando estão acordados? A razão para isso pode ser novamente devido à natureza mista dos sinais de EEG, além das fontes naturais de aleatoriedade no ambiente de estímulo durante o estado de vigília. Como os sinais EEG de vigília são dirigidos tanto pela dinâmica interna do cérebro quanto pelos estímulos externos, uma mistura dos dois pode ser um pouco menos previsível. Uma possível maneira de isolar as fontes internas vs. externas seria usar a separação de fonte cega, por exemplo, análise de componentes independentes (Delorme e Makeig, 2004) e correlacionar os componentes isolados com as estatísticas de estímulo. Dessa forma, podemos descartar a variabilidade do sinal conduzido externamente durante o estado de vigília. Nossa previsão é que a previsibilidade desses componentes internos seria tão alta quanto a dos dados REM.

Outra propriedade interessante da distribuição do erro de previsão do IPI é sua assimetria positiva em todas as condições (Figura & # x200B (Figura 4). 4). A assimetria positiva significa mais erro positivo do que negativo, o que indica subestimação do IPI (uma vez que erro = verdade & # x02212 previsto) Uma possível explicação para isso é que o mecanismo de previsão pode ser mais sintonizado para IPIs mais curtos, pois os sinais de EEG geralmente tendem a mostrar bursts de alta frequência seguidos de pausa ocasional de intervalos de baixa frequência. A própria distribuição de IPI (Figura & # x200B (Figura 6) 6) mostra que, para todos os casos, as distribuições são distorcidas positivamente e, portanto, o número de valores de IPI menores que a média é mais frequente do que aqueles com valores maiores que a média. Essa tendência pode explicar a assimetria positiva do erro de previsão do IPI.

Finalmente, gostaríamos de discutir brevemente algumas implicações de nossos resultados sobre a percepção do tempo e os neurorrobóticos. Nossas principais descobertas foram (1) a existência de dinâmica previsível e sua relação com os estados de consciência, e (2) sua discreta (evento pico a pico) e lenta (

100 a 150 ms, em comparação com os potenciais de ação) natureza (Figura & # x200B (Figura 6). 6). Em primeiro lugar, a própria existência de tais dinâmicas internas regulares e previsíveis poderia ser uma base para mecanismos de percepção de tempo, por exemplo, como um marcapasso ou uma métrica interna contra a qual ordem e duração (Wittmann e Paulus, 2008 Maniadakis et al., 2009) Pode ser inferido. Em segundo lugar, a natureza discreta e lenta de tal dinâmica previsível poderia ser bem adequada ao comportamento e cognição, fornecendo partições no tempo interno percebido que correspondem a escalas de tempo comportamentais / cognitivas. Uma compreensão mais profunda desta conexão pode levar a uma percepção de tempo robusta e mecanismos de controle para neurorobóticos.

Declaração de conflito de interesse

Os autores declaram que a pesquisa foi realizada na ausência de quaisquer relações comerciais ou financeiras que pudessem ser interpretadas como um potencial conflito de interesses.


História: De EEG a EEG Quantitativo (QEEG)

Em 1929, Hans Berger relatou em uma publicação suas observações sobre o que ele chamou de 'das Elektrenkephalogramm'(Berger, 1929), que se tornaria o artigo seminal destacando o início da pesquisa sobre o eletroencefalograma humano, também abreviado como EEG. Em seus primeiros experimentos, ele registrou o EEG de seu filho Klaus - entre outros - e descreveu extensivamente os métodos que usou e o que observou. A Figura 1 abaixo demonstra 2 gráficos daquela primeira publicação registrada de seu filho. A figura inferior representa o ritmo que ele eventualmente chamaria de 'ritmo EEG alfa' e a figura superior representa o que ele eventualmente chamaria de 'ritmo EEG beta'. Desde aquela época, muitas pesquisas têm sido dedicadas a medir o EEG em diferentes condições, bem como medir o EEG em uma variedade de distúrbios que variam de neurológicos a psiquiátricos.

Figura 1: Os primeiros relatórios do EEG humano da primeira publicação de Hans Berger (1929). Ambos representam amostras de EEG registradas de seu filho Klaus (16 anos). A figura inferior representa uma amostra do que ele mais tarde chamaria de 'ritmo alfa' (um ritmo sinusoidal de aproximadamente 10 Hz) e a figura acima do que ele posteriormente chamaria de 'ritmo beta' (ou um EEG dessincronizado sem ritmicidade óbvia) . O traçado mais baixo em ambos os gráficos é uma onda senoidal de 10 Hz gerada e o traçado do meio da figura superior é o ECG. De: Berger (1929).

No período entre a descoberta do EEG em 1929 e o final dos anos 1960, o EEG foi inspecionado principalmente visualmente até que o equipamento digital se tornou possível, o que tornou possível aplicar a análise de Fourier aos dados de EEG para extrair o conteúdo espectral - ou conteúdo de frequência & # 8211 de um sinal . Isso acabou possibilitando o campo do EEG Quantitativo (QEEG) como o conhecemos hoje. Na forma mais simples, fala-se de QEEG quando o EEG é submetido à análise espectral (Niedermeyer & amp Da Silva, 2004). A este respeito, alguns preferem falar de "EEG normativo" para enfatizar que o EEG não deve ser apenas submetido à análise espectral, mas também comparado a um grupo de controle e / ou banco de dados normativo.

O grupo liderado por Ross Adey no UCLA Brain Research Institute no período de 1961-1974 foi pioneiro no uso do QEEG. Eles foram os primeiros a usar computadores digitais na análise de EEG com a produção de mapas cerebrais e desenvolveram a primeira biblioteca normativa de mapas cerebrais. Veja a figura 2 para algumas fotos com o primeiro equipamento desenvolvido para medir EEG no espaço sideral e durante a condução. Como parte do Laboratório de Biologia Espacial, eles estudaram os efeitos do espaço sideral e das viagens espaciais no cérebro, para determinar se voos espaciais prolongados seriam possíveis para o corpo humano. Como parte desse programa da NASA, Graham e Dietlein foram os primeiros a cunhar o termo EEG normativo (Graham & amp Dietlein, 1965). Nos últimos 20 anos, devido à disponibilidade cada vez maior de equipamentos de informática acessíveis com poder de cálculo crescente, o campo do QEEG se expandiu ainda mais e se tornou disponível para muitos médicos e clínicas em atividade. Junto com isso, vários bancos de dados normativos diferentes também foram desenvolvidos e estão disponíveis para a maioria dos médicos.

Figura 2: Uma foto de 1963 mostrando o equipamento desenvolvido por Adey et al. para medir EEG no espaço. Ross Adey - o pioneiro do QEEG - é a pessoa à direita na imagem superior esquerda. (Cortesia do Computer History Museum)


Juntando tudo - A jornada pela noite

Você sabia que apenas uma noite de sono regular tinha tantos elementos? Poucas pessoas sabem realmente sobre como o sono realmente é complexo, ou quantas mudanças e eventos ocorrem em apenas uma noite comum. Agora, vamos deixar as características detalhadas dos estágios do sono e dar uma olhada em como todos eles se encaixam.

O gráfico a seguir é uma das melhores representações visuais de como geralmente progredimos através dos diferentes estágios do sono em uma noite típica. Examine e, em seguida, leia os parágrafos abaixo para obter uma explicação.

A representação gráfica acima mostra as transições e a quantidade relativa de tempo gasto em cada estágio do sono em uma noite típica para um adulto humano. Observe que o sono profundo e de ondas lentas é mais prevalente no início da noite e que, à medida que a noite avança proporcionalmente, mais e mais tempo é gasto no sono REM.

O curso dos eventos

O seguinte foi adaptado do Stanford Sleep Book:

O sono é inserido por meio do estágio 1 não REM, que geralmente persiste por apenas alguns minutos. Durante o Estágio 1 do início do sono, o sono é facilmente interrompido por estímulos de intensidade muito baixa, como o fechamento de uma porta ou um leve empurrão.

O estágio 2 do sono é sinalizado pelo aparecimento de fusos do sono e / ou complexos K no EEG. A pessoa que está dormindo é mais difícil de despertar neste estágio. Um estímulo que produziria a vigília do Estágio 1 freqüentemente evocará um complexo K no EEG do Estágio 2, mas não um despertar completo. Durante os primeiros cinco a quinze minutos do Estágio 2, a atividade EEG de alta amplitude e baixa frequência começa a aparecer gradualmente.

Geralmente, há alguns minutos que podem ser classificados como Estágio 3 do sono antes de alta amplitude, ondas lentas são predominantes no EEG, definindo o Estágio 4 do sono. Na maioria dos adultos, o Estágio 4 deste primeiro ciclo de sono da noite é Sono muito profundo, e é muito mais difícil acordar quem está dormindo a esta hora do que tarde da noite. O estágio 4 normalmente continua por cerca de 20 a 40 minutos, após o qual uma série de movimentos corporais geralmente sinaliza uma "ascensão" para estágios mais leves de sono não REM.

O primeiro período REM

Alguns minutos do Estágio 3 podem ocorrer ou pode haver uma transição direta para o sono do Estágio 2. Após 5 ou 10 minutos, o primeiro período de sono REM aparece. Este primeiro episódio REM da noite costuma ter vida curta, geralmente com duração de 1 a 10 minutos.

Em humanos, o fim de um episódio REM e a transição para estágios não-REM do sono podem estar associados a algum movimento corporal, e uma excitação muito breve ou a transição pode ocorrer sem nenhum movimento e nenhuma excitação. Freqüentemente, há uma mudança na posição do corpo, como uma virada ou uma série de ajustes menores.

O sono não-REM e o sono REM continuam a se alternar durante a noite. A duração do primeiro ciclo de sono - desde o início do sono até o final do primeiro episódio REM - é normalmente 60 a 90 minutos.

O Segundo Ciclo de Sono

No segundo ciclo de sono, há menos sono no Estágio 4 e mais no Estágio 2. A porção REM do segundo ciclo é um pouco mais longa que a primeira, geralmente em torno de 10 a 20 minutos. A duração do segundo ciclo de sono, medida a partir do final do primeiro período de sono REM até o final do segundo, é geralmente mais longa do que o primeiro, em média 100 a 110 minutos.

O terceiro ciclo do sono e mais além

No terceiro período de sono REM e além, os Estágios 3 e 4 geralmente estão totalmente ausentes ou presentes em quantidades muito pequenas; a porção não REM desses ciclos é quase inteiramente do Estágio 2 do sono. Episódios REM tendem a se tornar mais longos em ciclos posteriores--o quarto ou quinto episódio REM dura tipicamente 30 a 45 minutos - deixando espaço para alguns sonhos sérios no final da noite.

Episódios breves de vigília tendem a ocorrer em ciclos posteriores, geralmente em associação com as transições entre o Estágio 2 e o sono REM, mas esses breves despertares geralmente não são lembrados pela manhã.

Em suma

Em resumo, uma noite de sono em um ser humano adulto é caracterizada por uma alternância cíclica de sono não REM e sono REM. O período médio desse ciclo é normalmente de 90 minutos, embora a duração dos ciclos individuais mostre uma variabilidade considerável ao longo da noite.

Os estágios 3 e 4 do sono tendem a predominar nos não-REM durante os primeiros dois ciclos. Conseqüentemente, o primeiro terço da noite é geralmente considerado o sono mais profundo. O sono REM e o estágio 2 não REM predominam no último terço da noite.

Agora que fizemos a jornada durante a noite e entendemos como progredimos através dos estágios do sono, vamos voltar nossa atenção para o tópico igualmente importante da jornada durante o dia e como o sono afeta nossa vigília. O que seu cérebro tem a dizer sobre o quão produtivo você é? Confira a próxima etapa do sono para descobrir.

Gostou desta página? Ajude-nos a pagá-lo a outras pessoas que considerem valioso curtindo, compartilhando, twittando, tropeçando e / ou votando abaixo.


Resultados

Participantes

Um total de 93 participantes potenciais preencheram os critérios de seleção do estudo e foram submetidos a um exame físico. No geral, 82 deles preencheram os critérios de inclusão do estudo após o exame físico e participaram da avaliação EEG. Destes 64 tinham um SCI (38 com dor crônica) e 28 eram controles saudáveis.

As informações demográficas e do tipo de dor (neuropática, nociceptiva ou ambos) sobre os participantes do estudo são apresentadas na Tabela 1. Os três grupos não diferiram significativamente quanto à idade. Como seria de se esperar, dada a espasticidade e outros problemas nesta população, muito mais participantes com LME do que controles saudáveis ​​haviam tomado um medicamento de ação central 24 horas antes da avaliação do EEG. Além disso, fomos capazes de recrutar apenas uma mulher com LM que não relatou dor, o que foi menos do que o número de mulheres nos grupos de dor LM e controle saudável. A fim de garantir que quaisquer achados nas análises primárias não fossem influenciados pelas diferenças entre os grupos no uso de medicamentos ou distribuição por sexo, repetimos todas as análises (1) usando apenas participantes sem medicamentos de ação central 24 horas antes de sua avaliação EEG e ( 2) usar apenas homens.

Diferenças de grupo na atividade de largura de banda absoluta e relativa

A Tabela 2 apresenta os resultados das ANOVAs comparando a atividade da largura de banda absoluta e relativa do EEG entre os grupos, medida em todos os 19 locais do eletrodo. Uma tendência não significativa (P& lt0.10) surgiu para diferenças em alfa absoluto e teta relativo, e um significativo (P& lt0,05) efeito de grupo para alfa relativo emergiu, todos consistentes com as hipóteses do estudo (ou seja, mais teta e menos alfa no grupo de dor SCI, em relação aos outros grupos). Nenhuma tendência significativa ou não significativa surgiu para as larguras de banda delta ou beta. As análises usando apenas homens essencialmente replicaram esses achados, sem efeitos significativos para delta, teta ou beta, mas efeitos significativos para ambos absolutos (F (2,57) = 3,50, P= 0,037) e relativo (F (2,57) = 5,14, P= 0,009) alfa. Nenhuma tendência não significativa ou efeitos significativos surgiram quando as análises foram limitadas àqueles que não estavam tomando nenhum medicamento de ação central, embora o padrão geral de resultados fosse o mesmo.

A análise exploratória do local do eletrodo não encontrou efeitos de potência absolutos significativos para delta, teta ou beta em qualquer local. Para a atividade da banda alfa absoluta, efeitos significativos surgiram para localizações frontais (FP1, FP2, F3, FZ e F4), com menos alfa no grupo de dor SCI, em relação aos outros grupos. Nenhum efeito significativo surgiu para qualquer local de eletrodo para delta relativo ou beta. Não significativo (P& lt0.10) tendências surgiram para uma série de locais para teta relativo (FP1, FP2, F7, F3, FZ, C3, T5, PZ, P4) e significativo (P& lt0.05) surgiram efeitos para teta relativo em P3, 01 e 02, com mais teta relativo nesses locais em participantes com SCI e dor, em comparação com os grupos sem dor. Efeitos significativos também surgiram para alfa relativo para 14 dos 19 locais de eletrodo (todos exceto F7, T3, T6, O1 e O2), com menos alfa no grupo de dor SCI em comparação com os grupos sem dor.

Associações entre intensidade da dor e atividade EEG

Nem a atividade de potência da largura de banda absoluta nem relativa foi significativamente associada à intensidade da dor no grupo com LM e dor crônica (Tabela 3). No entanto, o padrão de achados com relação a alfa e beta está em uma direção oposta ao previsto, com maior alfa relativo e absoluto e menor beta relativo associado a maior intensidade de dor. O exame dos coeficientes de correlação em cada um dos 19 locais para cada largura de banda produziu apenas três efeitos significativos para a atividade alfa, e cada um estava em uma direção oposta à prevista (ou seja, mais alfa foi associado a mais dor): atividade alfa absoluta em FP1 (r= 0,41) e FP2 (r= 0,36) e atividade alfa relativa em F8 (r=0.39).


4 respostas 4

Mínimos quadrados é mais fácil, e o fato de que para variáveis ​​aleatórias independentes "soma de variâncias" significa que é consideravelmente mais conveniente para exemplos, a capacidade de particionar variâncias é particularmente útil para comparar modelos aninhados. É um pouco mais eficiente no normal (os quadrados mínimos são a probabilidade máxima), o que pode parecer uma boa justificativa - no entanto, alguns estimadores robustos com alto colapso podem ter eficiência surpreendentemente alta no normal.

Mas as normas L1 certamente são usadas para problemas de regressão e, atualmente, com relativa frequência.

Se você usa R, pode achar a discussão na seção 5 útil aqui:

(embora as coisas antes dele na estimativa M também sejam relevantes, uma vez que também é um caso especial disso)


Interpretando os resultados: diferença absoluta versus diferença relativa

Isso é compreensível, visto que os profissionais de marketing não são famosos por serem matemáticos experientes em dados, mas vamos encarar os fatos, interpretar análises de forma eficaz para obter insights úteis sobre seus clientes não é uma tarefa fácil.

O comportamento do cliente pode facilmente se perder na matemática por trás dos resultados da campanha ou, pior, ser negligenciado e simplesmente tomado pelo valor de face.

Isso é preocupante, dado o número significativo de profissionais de marketing que usam análises para melhorar suas mensagens (67%) e tomar decisões (47%) de acordo com o MarketingSherpa Relatório de comparação de análise de marketing de 2013 (download automático gratuito).

Na postagem de hoje no Blog de Experimentos de Marketing, daremos uma olhada mais profunda em como ter uma compreensão clara da diferença absoluta versus diferença relativa pode ajudá-lo a interpretar os resultados do seu teste.

A diferença absoluta dá-lhe a diferença numérica real entre os tratamentos

A título de exemplo, usaremos um teste de divisão A / B simples (controle e um único tratamento) para um teste de página de destino hipotético e alguns dados fictícios para interpretar.

Fizemos nosso teste e aqui estão nossos resultados. O tratamento superou o controle por uma diferença absoluta de 0,4% e uma diferença relativa de 16,1%.

Bem, a diferença absoluta é a diferença de dois números reais.

Pense nisso literalmente como X - Y.

Nesse caso, o controle teve uma taxa de conversão de 2,5% e o tratamento teve uma taxa de conversão de 2,9%.

2,9% (taxa de conversão de tratamento) menos 2,5% (taxa de conversão de controle) é igual a 0,4%

Portanto, nossa diferença absoluta (número real) foi de 0,4%.

Normalmente olhamos para a diferença absoluta nas taxas de conversão entre um controle e tratamentos para determinar a diferença geral no desempenho.

Em relação à interpretação, isso me diz que a taxa de conversão do tratamento foi literalmente 0,4% maior do que a do controle.

A diferença relativa dá-lhe a escala de diferença entre os tratamentos

Seguindo nosso exemplo, sabemos que o tratamento superou o controle por uma diferença absoluta de 0,4% e as implicações literais disso.

Mas qual é a magnitude real da diferença de relacionamento observada entre nosso controle e tratamento que capturamos em nossos dados?

É aqui que entra a diferença relativa.

A diferença relativa nos permite entender a proporção comparativa de dois números - muitas vezes expressa como uma porcentagem - que nos dá uma visão direta da verdadeira escala de diferença entre nosso controle e tratamento.

Em suma, para cada comportamento registrado na taxa de conversão do controle, há 16,1% a mais desse comportamento ocorrendo no tratamento.

Aqui está uma ilustração de como a diferença relativa é calculada para ajudar a torná-la um pouco mais fácil de entender. Se usarmos os dados de nosso teste, veja como eles se encaixariam na fórmula:

[(2.9 – 2.5)/2.5] * 100 = 16.1%

Compreendendo a diferença relativa, podemos agora dizer que o tratamento aumentou a conversão em 16,1%.

Depois de entendê-lo, você o possui

Compreender a diferença entre esses dois conceitos pode ajudá-lo a ter uma noção mais profunda do que os clientes estão fazendo, para que você possa se concentrar no porquê.

Recursos Relacionados:

Obrigado por percorrer isso. Percebi que sua equação lista Conversão de Controle menos Conversão de Tratamento dividido pela Conversão de Controle, MAS sua ilustração ordena Conversão de Tratamento menos Conversão de Controle dividido pela Conversão de Controle.

Oi Jon. Grande captura. Vejo que alternamos entre a equação e a ilustração para saber se é Taxa de conversão de tratamento MENOS Taxa de conversão de controle ou se é Taxa de conversão de controle MENOS Taxa de conversão de tratamento. A realidade é que, contanto que você use o mesmo denominador (a taxa de conversão de controle), a DIFERENÇA ABSOLUTA entre a taxa de conversão de tratamento e a taxa de conversão de controle seria a mesma, assim como a DIFERENÇA RELATIVA, embora negativa ou positiva. Portanto, em ambos os casos, acabamos com uma diferença de 16%, mas ao subtrair a Taxa de conversão de tratamento da Taxa de conversão de controle e depois dividi-la pela Taxa de conversão de controle (como visto na equação), acabamos com uma diferença de -16% como em oposição à diferença positiva de 16% que resulta ao usar a ordem mostrada na ilustração. Em última análise, tudo se resume a qual você está comparando. No caso da diferença de -16%, estamos dizendo que o Controle teve uma diminuição de 16% em relação ao Tratamento. No entanto, na maioria dos casos, você desejará comparar o desempenho do tratamento com o controle, o que torna a ordem mostrada na ilustração mais apropriada: (Taxa de conversão de tratamento MENOS Taxa de conversão de controle) / Taxa de conversão de controle = aumento de 16%. Espero que ajude.


Absolute Xpath: Usa o caminho completo do elemento raiz para o elemento desejado.

Xpath Relativo: Você pode simplesmente começar referenciando o elemento que deseja e partir daí.

Os Xpaths relativos são sempre preferidos, pois não são os caminhos completos do elemento raiz. (// html // corpo). Porque no futuro, se qualquer elemento da web for adicionado / removido, o Xpath absoluto mudará. Portanto, sempre use Xpaths relativos em sua automação.

Abaixo estão alguns links que você pode consultar para obter mais informações sobre eles.

Um xpath absoluto em HTML DOM começa com / html, por exemplo

e um xpath relativo encontra o id fechado para o elemento dom e gera xpath a partir desse elemento, por exemplo,

Você pode usar o firepath (firebug) para gerar os dois tipos de xpaths

Não fará nenhuma diferença qual xpath você usa no selênio, o anterior pode ser mais rápido do que o posterior (mas não será observável)

Os xpaths absolutos são propensos a mais regressão, pois uma ligeira mudança no DOM os torna inválidos ou referem-se a um elemento errado

tão Caminho de Absoulte= html / body / input e Caminho relativo = // * [@ id = "nome de usuário"]

A desvantagem do xpath Absoluto é que a manutenção é alta se houver alguma alteração feita no html, ela pode atrapalhar todo o caminho e também às vezes precisamos escrever xpaths absolutos longos, então os xpaths relativos são preferidos

XPath absoluto: É a maneira direta de localizar o elemento, mas a desvantagem do XPath absoluto é que, se houver alguma alteração feita no caminho do elemento, esse XPath falhará.

A principal característica do XPath é que ele começa com uma única barra (/), o que significa que você pode selecionar o elemento do nó raiz.

Abaixo está o exemplo de um xpath absoluto.

Xpath relativo: O Xpath relativo começa no meio da estrutura HTML DOM. Ele começa com barra dupla (//). Ele pode pesquisar elementos em qualquer lugar da página da web, o que significa que não há necessidade de escrever um xpath longo e você pode começar no meio da estrutura HTML DOM. Xpath relativo é sempre preferido, pois não é um caminho completo do elemento raiz.


MH foi apoiado pelo Programa de Pesquisa e Inovação Horizon 2020 da União Europeia e # x2019s sob o acordo de subvenção Marie Sk & # x0142odowska-Curie no. 641805. AW foi apoiado pelo Conselho de Pesquisa de Biotecnologia e Ciências Biológicas do Reino Unido (BBSRC) número BB / M002543 / 1, e JH pelo número de concessão BBSRC BB / M001660 / 1.

Os autores declaram que a pesquisa foi realizada na ausência de quaisquer relações comerciais ou financeiras que pudessem ser interpretadas como um potencial conflito de interesses.


Conclusão

Em conclusão, mostramos que as medidas teóricas da informação de integração I (X) são relativamente robustas para artefatos de condução de volume em todas as quatro referências de EEG ao comparar as diferenças de condição de estado de repouso, enquanto a complexidade Ceu(X) é o mais robusto para artefatos de condução de volume quando calculado em relação à referência LAP. Além disso, as simulações de dipolo mostraram que das quatro referências EEG, a referência LAP produziu a aproximação mais próxima dos verdadeiros valores absolutos de integração da fonte dipolo e estimou com mais precisão os gradientes de complexidade e mudanças de integração entre os níveis de dependência da fonte. Além disso, a magnitude do estado de repouso CeuAs diferenças (X) e I (X) foram geralmente mais baixas para a transformação LAP, sugerindo que os dados transformados LAP fornecem uma estimativa conservadora da complexidade entre as condições e diferenças de integração. Assim, ao medir a complexidade e integração de EEG durante os estados de repouso (ou tarefas semelhantes que envolvem sinais de EEG em andamento e relativamente estacionários), recomendamos o uso da transformação de Laplaciana devido ao seu impacto positivo na qualidade do sinal de EEG, aumento da topografia da fonte, redução de efeitos de condução de volume, e o efeito positivo resultante que eles têm na medição da complexidade e integração. Embora as referências médias ou infinitas não reduzam a condução de volume, seu uso para o cálculo da complexidade e integração de EEG é aceitável em situações em que a transformação Laplaciana é impedida (ou seja, a expectativa de fontes corticais profundas) e quando podem se aproximar de uma referência neutra (ou seja, quando há propagação e densidade de cobertura de eletrodos suficientes no couro cabeludo Jungh & # x000F6fer et al., 1999 Liu et al., 2015). Furthermore, although we found the average and infinity references to display roughly equivalent performance for the computation of complexity and integration, the infinity reference is to be favored due to its greater accuracy in representing resting state EEG activity (Qin et al., 2010). Finally, we do not recommend use of a linked-mastoid reference for the computation of EEG complexity and integration due to its greater noise levels and tendency to induce artifactual correlations among scalp electrodes.


Resultados

Participantes

A total of 93 potential participants met the study screening criteria and were given a physical examination. Overall, 82 of these met study inclusion criteria following the physical exam, and participated in the EEG assessment. Of these 64 had an SCI (38 with chronic pain) and 28 were healthy control subjects.

Demographic and pain type (neuropathic, nociceptive, or both) information about the study participants are presented in Table 1. The three groups did not differ significantly in age. As might be expected given spasticity and other problems in this population, many more participants with SCI than healthy controls had taken a centrally acting medication within 24 h before the EEG assessment. Also, we were able to recruit only one woman with SCI who reported no pain, which was fewer than the number of women in the SCI pain and healthy control groups. In order to ensure that any findings in the primary analyses were not influenced by the differences between groups in medication use or sex distribution, we repeated all analyses (1) using only participants with no centrally acting medications in 24 h before their EEG assessment and (2) using only men.

Group differences in absolute and relative bandwidth activity

Table 2 presents the results of the ANOVAs comparing absolute and relative EEG bandwidth activity between the groups as measured over all 19 electrode sites. A nonsignificant trend (P<0.10) emerged for differences in absolute alpha and relative theta, and a significant (P<0.05) group effect for relative alpha emerged, all of which were consistent with the study hypotheses (that is, more theta and less alpha in the SCI pain group, relative to the other groups). No significant or nonsignificant trends emerged for the delta or beta bandwidths. The analyses using only men essentially replicated these findings, with no significant effects for delta, theta or beta, but significant effects for both absolute (F(2,57)=3.50, P=0.037) and relative (F(2,57)=5.14, P=0.009) alpha. No nonsignificant trends or significant effects emerged when the analyses were limited to those not taking any centrally acting medications, although the overall pattern of findings was the same.

Electrode site exploratory analysis found no significant absolute power effects for delta, theta or beta at any site. For absolute alpha band activity, significant effects did emerge for frontal locations (FP1, FP2, F3, FZ and F4), with less alpha in the SCI pain group, relative to the other groups. No significant effects emerged for any electrode site for relative delta or beta. Nonsignificant (P<0.10) trends emerged for a number of sites for relative theta (FP1, FP2, F7, F3, FZ, C3, T5, PZ, P4), and significant (P<0.05) effects emerged for relative theta at P3, 01 and 02, with more relative theta at these sites in participants with SCI and pain, compared with the non-pain groups. Significant effects also emerged for relative alpha for 14 of the 19 electrode sites (all except F7, T3, T6, O1 and O2), with less alpha in the SCI pain group compared with the non-pain groups.

Associations between pain intensity and EEG activity

Neither absolute nor relative bandwidth power activity was associated significantly with pain intensity in the group with SCI and chronic pain (Table 3). However, the pattern of findings with respect to alpha and beta are in a direction opposite from that predicted, with higher relative and absolute alpha and lower relative beta associated with more pain intensity. Examination of the correlation coefficients at each of the 19 sites for each bandwidth yielded only three significant effects for alpha activity, and each was in a direction opposite of that predicted (that is, more alpha was associated with more pain): absolute alpha activity at FP1 (r=0.41) and FP2 (r=0.36) and relative alpha activity at F8 (r=0.39).


Absolute Xpath: It uses Complete path from the Root Element to the desire element.

Relative Xpath: You can simply start by referencing the element you want and go from there.

Relative Xpaths are always preferred as they are not the complete paths from the root element. (//html//body). Because in future, if any webelement is added/removed, then the absolute Xpath changes. So Always use Relative Xpaths in your Automation.

Below are Some Links which you can Refer for more Information on them.

An absolute xpath in HTML DOM starts with /html e.g.

and a relative xpath finds the closed id to the dom element and generates xpath starting from that element e.g.

You can use firepath (firebug) for generating both types of xpaths

It won't make any difference which xpath you use in selenium, the former may be faster than the later one (but it won't be observable)

Absolute xpaths are prone to more regression as slight change in DOM makes them invalid or refer to a wrong element

so Absoulte path= html/body/input and Relative path = //*[@id="username"]

Disadvantage with Absolute xpath is maintenance is high if there is nay change made in html it may disturb the entire path and also sometime we need to write long absolute xpaths so relative xpaths are preferred

Absolute XPath: It is the direct way to find the element, but the disadvantage of the absolute XPath is that if there are any changes made in the path of the element then that XPath gets failed.

The key characteristic of XPath is that it begins with the single forward slash(/) ,which means you can select the element from the root node.

Below is the example of an absolute xpath.

Relative Xpath: Relative Xpath starts from the middle of HTML DOM structure. It starts with double forward slash (//). It can search elements anywhere on the webpage, means no need to write a long xpath and you can start from the middle of HTML DOM structure. Relative Xpath is always preferred as it is not a complete path from the root element.


History: From EEG to Quantitative EEG (QEEG)

In 1929 Hans Berger reported in an publication his observations on what he termed ‘das Elektrenkephalogramm’ (Berger, 1929), which would become the seminal paper highlighting the beginning of research on the human electroencephalogram also abbreviated as EEG. In his first experiments he recorded the EEG from his son Klaus – among others – and described extensively the methods he used and what he observed. Figure 1 below demonstrates 2 graphs from that first publication recorded from his son. The bottom figure represents the rhythm he would eventually call the ‘alpha EEG rhythm’ and the top figure represents what he would eventually call the ‘beta EEG rhythm’. Since that time much research has been dedicated to measuring EEG under different conditions as well as measuring EEG in a variety of disorders ranging from neurological to psychiatric.

Figure 1: The first reports of the human EEG from the first publication from Hans Berger (1929). Both represent samples of EEG recorded from his son Klaus (16 years old). The bottom figure represents a sample of what he would later call the ‘alpha rhythm’ (a sinusoidal rhythm of approximately 10 Hz) and the figure above what he would later call the ‘beta rhythm’ (or a desynchronized EEG with no obvious rhythmicity). The lowest tracing in both graphs is a generated 10 Hz sine wave, and the middle tracing from the top figure is the ECG. From: Berger (1929).

In the period between the discovery of EEG in 1929 and the late 1960’s EEG was mainly inspected visually until digital equipment became available which made it possible to apply Fourier analysis to EEG data to extract the spectral content – or frequency content – of a signal. This eventually enabled the field of Quantitative EEG (QEEG) as we know it today. In the simplest form one speaks of QEEG when the EEG is submitted to spectral analysis (Niedermeyer & Da Silva, 2004). In this respect some prefer to speak of ‘Normative EEG’ to emphasize that the EEG should not only be submitted to spectral analysis but also compared to a control group and/or normative database.

The group led by Ross Adey at the UCLA Brain Research Institute in the period 1961-1974 pioneered the use of QEEG. They were the first to use digital computers in the analysis of EEG with the production of brain maps and developed the first normative library of brain maps. See figure 2 for some photos with the first equipment developed to measure EEG in outer space and during driving. As part of the Space Biology Laboratory they studied the effects of outer space and space travel on the brain, to determine whether prolonged space flight would be possible for the human body. As part of this NASA program Graham and Dietlein were the first to coin the term Normative EEG (Graham & Dietlein, 1965). In the last 20 years due to the increasing availability of affordable computer equipment with increasing calculating power, the field of QEEG has expanded even further and has become available for many practicing clinicians and clinics. Along with this, several different normative databases have been developed as well and are available to most clinicians.

Figure 2: A photo from 1963 showing the equipment developed by Adey et al. to measure EEG in space. Ross Adey – who pioneered QEEG – is the person on the right in the top left picture. (Courtesy of the Computer History Museum)


Conclusão

In conclusion, we have shown that information-theoretic measures of integration I(X) are relatively robust to volume-conduction artifacts across all four EEG references when comparing resting state condition differences, whereas complexity Ceu(X) is the most robust to volume-conduction artifacts when computed with respect to the LAP reference. In addition, dipole simulations showed that of the four EEG references, the LAP reference produced the closest approximation to the true absolute dipole source integration values, and more accurately estimated the gradients of complexity and integration changes across source dependency levels. Moreover, the magnitude of the resting state Ceu(X) and I(X) differences were generally lowest for the LAP transformation, suggesting that LAP-transformed data provides a conservative estimate of between-condition complexity and integration differences. Thus, when measuring EEG complexity and integration during resting states (or similar tasks that involve ongoing, relatively stationary EEG signals), we recommend use of the Laplacian-transformation due to its positive impact on EEG signal quality, sharpening of source topography, reduction of volume-conduction effects, and the resultant positive effect these have on the measurement of complexity and integration. Although average or infinity references do not reduce volume conduction, their use for the computation of EEG complexity and integration is acceptable in situations when the Laplacian-transformation is precluded (i.e., the expectation of deep cortical sources) and when they can approximate a neutral reference (i.e., when there is sufficient spread and density of electrode coverage across the scalp Junghr et al., 1999 Liu et al., 2015). Furthermore, although we found the average and infinity references to display roughly equivalent performance for the computation of complexity and integration, the infinity reference is to be favored due to its greater accuracy in representing resting state EEG activity (Qin et al., 2010). Finally, we do not recommend use of a linked-mastoid reference for the computation of EEG complexity and integration due to its greater noise levels and tendency to induce artifactual correlations among scalp electrodes.


4. Discussion

In this article, we analyzed publicly available EEG data from sleep and awake states to measure the predictability of the signals under conscious (awake and REM sleep) and unconscious (SWS) conditions. We found that the predictability of EEG signals correlated with the degree of consciousness. These results support our earlier hypothesis that predictable internal brain dynamics is a necessary condition of consciousness. In the following, we will discuss potential issues and interesting observations from our study, and propose potential applications of our finding to time perception and neurorobotics.

There are potential limitations of our approach as we briefly mentioned in the Materials and Methods section. We measured predictability in the inter-peak interval in the EEG signals, not directly on the raw EEG signals. Predictability measured on raw EEG signals did not show any significant differences among the three conditions: awake, REM, and SWS (pilot results, data not shown). This could be due to multiple factors, one of which is the nature of the EEG signals. For example, EEG signals are weighted mixtures of on-going electrical activity in the brain. Also, generally reduced levels of activity during SWS may result in flatter signals (slowly changing and low-amplitude, further confounded by mixing) which may be easier to extrapolate from. Based on this observation, we initially analyzed single neuron spike train data obtained during sleep and awake states by Steriade et al. (2001). Using the data, we used the same feed-forward neural network predictor to predict the inter-spike interval (ISI) under awake, REM, and SWS conditions. Our results were consistent with what we reported here, however, the data set was very small (on the order of 100 spikes per condition, compared to thousands of peaks in the EEG data) so we could not draw meaningful conclusions. However, since we found that using discrete events (spikes) instead of the continuous wave form gave promising results, we tried to recover such events in the EEG data which led us to the inter-peak interval (IPI) measure. (Note that the above is simply our motivation to use EEG IPI, and not a claim that we are extracting spike timing information from the EEG signals.) Aside from the dynamic data we discussed above (raw EEG, IPI based on EEG, or ISI), event-related potential (ERP) could have been analyzed. However, ERPs are by definition event-related, thus they are anchored to specific tasks or stimuli. Furthermore, ERPs are averages of over large number of trials. Due to these reasons, ERPs may not be suitable for studying ongoing baseline states such as awake, dreaming, or sleep, although they may be effective in detecting transition events between these on-going states (Ogilvie et al., 1991).

One rather unexpected result was that the IPI prediction error was lower for REM sleep than awake state, and significantly so [t-test, p < 10 𢄦 in all cases (except for REM vs. AWAKE for subject 4)]. Does this mean that subjects are more conscious during REM sleep than when they are awake? The reason for this may again be due to the mixed nature of EEG signals, plus the natural sources of randomness in the stimulus environment during the awake state. Because the awake EEG signals are driven both by the internal brain dynamics and the external stimuli, a mixture of the two may be slightly less predictable. A possible way to isolate the internal vs. external sources would be to use blind source separation, e.g., independent components analysis (Delorme and Makeig, 2004), and correlate the isolated components with the stimulus statistics. This way, we can rule out the externally driven signal variability during awake state. Our prediction is that the predictability of these internal components would be as high as that of the REM data.

Another interesting property of the IPI prediction error distribution is its positive skewness under all conditions (Figure ​ (Figure4). 4 ). Positive skewness means more positive error than negative error, which indicates underestimation of IPI (since error = truepredicted) One possible explanation for this is that the prediction mechanism may be tuned more to shorter IPIs as the EEG signals generally tend to show high-frequency bursts followed by occasional pause of low-frequency intervals. The IPI distribution itself (Figure ​ (Figure6) 6 ) shows that, for all cases, the distributions are positively skewed, and so the number of IPI values smaller than the mean is more frequent than those with values larger than the mean. This trend can explain the positive skewness of the IPI prediction error.

Finally, we would like to discuss briefly some implications of our results on time perception and neurorobotics. Our main findings were (1) the existence of predictable dynamics and its relation to conscious states, and (2) its discrete (peak to peak event) and slow (

100 to 150 ms, compared to action potentials) nature (Figure ​ (Figure6). 6 ). First, the very existence of such regular and predictable internal dynamics could be a foundation for time perception mechanisms, for example, as a pace maker or a internal metric against which order and duration (Wittmann and Paulus, 2008 Maniadakis et al., 2009) can be inferred. Second, the discrete and slow nature of such predictable dynamics could be well suited to behavior and cognition, by providing partitionings in perceived internal time that correspond to behavioral/cognitive time scales. A deeper understanding of this connection can lead to robust time perception and control mechanisms for neurorobotics.

Declaração de conflito de interesse

Os autores declaram que a pesquisa foi realizada na ausência de quaisquer relações comerciais ou financeiras que pudessem ser interpretadas como um potencial conflito de interesses.


Interpreting Results: Absolute difference versus relative difference

This is understandable given marketers are not notorious for being data-savvy mathematicians, but let’s face it, interpreting analytics effectively to gain useful insights about your customers is no easy task.

Customer behavior can easily become lost in the math behind campaign results, or worse, overlooked and simply taken at face value.

This is troubling given the significant number of marketers who use analytics to improve their messaging (67%) and make decisions (47%) according to the MarketingSherpa 2013 Marketing Analytics Benchmark Report (free automatic download).

In today’s MarketingExperiments Blog post, we’ll take a deeper look at how having a clear understanding of absolute difference versus relative difference can help you interpret your test results.

Absolute difference gives you the real number difference between treatments

For the sake of example, we’ll use a simple A/B split test (control and a single treatment) for a hypothetical landing page test and some dummy data to interpret.

We ran our test and here are our results. The treatment outperformed the control by an absolute difference of 0.4% and a relative difference of 16.1%.

Well, the absolute difference is the difference of two real numbers.

Think of it literally as X – Y.

In this case, the control had a 2.5% conversion rate and the treatment had a 2.9% conversion rate.

2.9% (treatment conversion rate) minus 2.5% (control conversion rate) equals 0.4%

Therefore, our absolute (real number) difference was 0.4%.

We usually look at the absolute difference in conversion rates between a control and treatments to determine the overall difference in performance.

In regard to interpretation, this tells me that the treatment’s conversion rate was literally 0.4% higher than that of the control.

Relative difference gives you the scale of difference between treatments

In keeping with our example, we know the treatment outperformed the control by an absolute difference of 0.4% and the literal implications of that.

But what is the real magnitude of the observed relationship difference between our control and treatment that we captured in our data?

This is where relative difference comes in.

Relative difference allows us to understand the comparative ratio of two numbers – often expressed as a percentage – that gives us a direct insight into the true scale of difference between our control and treatment.

In short, for every behavior recorded in the control’s conversion rate, there is 16.1% more of that behavior taking place in the treatment.

Here’s an illustration of how relative difference is calculated to help make it a little easier to understand. If we use the data from our test, here’s how it would plug into the formula:

[(2.9 – 2.5)/2.5] * 100 = 16.1%

By understanding relative difference, we can now say the treatment increased conversion by 16.1%.

Once you understand it, you own it

Understanding the difference between these two concepts can help you gain a deeper sense of what customers are doing, so you can focus on why.

Related Resources:

Thank you for walking through this. I noticed that your equation lists Control Conversion minus Treatment Conversion divided by Control Conversion, BUT your illustration orders it Treatment Conversion minus Control Conversion divided by Control Conversion.

Hi Jon. Great catch. I do see that we flip-flopped between the equation and the illustration on whether it’s Treatment Conversion Rate MINUS Control Conversion Rate or whether it’s Control Conversion Rate MINUS Treatment Conversion Rate. The reality is that as long as you use the same denominator (the Control Conversion Rate) the ABSOLUTE DIFFERENCE between Treatment Conversion Rate and Control Conversion Rate would be the same and so too would the RELATIVE DIFFERENCE albeit negative or positive. So, in both cases we end up with a 16% difference but when subtracting the Treatment Conversion Rate from the Control Conversion Rate and then dividing it by the Control Conversion Rate (as seen in the equation) we end up with -16% difference as opposed to the positive 16% difference which results when using the order shown in the illustration. Ultimately, it comes down to which one you’re comparing. In the case of the -16% difference, we’re saying the Control had a 16% decrease compared to the Treatment. However, in most cases you’ll want to compare Treatment performance to the Control which makes the order shown in the illustration more appropriate: (Treatment Conversion Rate MINUS Control Conversion Rate)/Control Conversion Rate = 16% increase. Hope that helps.


4 Answers 4

Least squares is easier, and the fact that for independent random variables "variances add" means that it's considerably more convenient for examples, the ability to partition variances is particularly handy for comparing nested models. It's somewhat more efficient at the normal (least squares is maximum likelihood), which might seem to be a good justification -- however, some robust estimators with high breakdown can have surprisingly high efficiency at the normal.

But L1 norms are certainly used for regression problems and these days relatively often.

If you use R, you might find the discussion in section 5 here useful:

(though the stuff before it on M estimation is also relevant, since it's also a special case of that)


Putting It All Together - The Journey Through The Night

Did you know just a regular night's sleep had so many elements to it? Not many people know really about how complex sleep really is, or how many changes and events occur in just a single, ordinary night. Now, we're going to leave the detailed characteristics of the stages of sleep and take a look at how they all fit together.

The following graph is one of the best visual representations of how we generally progress through the different stages of sleep in a typical night. Look it over, and then read the paragraphs below it for a bit of an explanation.

The graphic representation above shows the transitions and relative amount of time spent in each stage of sleep in a typical night for a human adult. Notice that deep, slow-wave sleep is most prevalent at the start of the night, and that as the night progresses proportionally more and more time is spent in REM sleep.

The Course of Events

The following is adapted from the Stanford Sleep Book:

Sleep is entered through non-REM Stage 1, which usually persists for only a few minutes. During sleep onset Stage 1, sleep is easily interrupted by very low intensity stimuli, like a door closing or a gentle nudge.

Stage 2 sleep is signaled by the appearance of sleep spindles and/or K complexes in the EEG. The sleeper is more difficult to arouse in this stage a stimulus that would produce wakefulness from Stage 1 will often evoke a K complex in the Stage 2 EEG, but not a complete awakening. During the course of the first five to fifteen minutes of Stage 2, high amplitude, slow frequency EEG activity gradually begins to appear.

There are generally then a few minutes that can be classified as Stage 3 sleep before high amplitude, slow waves are predominant in the EEG, defining Stage 4 sleep. In most adults, Stage 4 of this first sleep cycle of the night is very deep sleep, and it is much harder to awaken the sleeper at this time than later in the night. Stage 4 typically continues for about 20 to 40 minutes, after which a series of body movements usually signals an "ascent" to lighter non-REM sleep stages.

The First REM Period

A few minutes of Stage 3 may occur, or there may be a direct transition to Stage 2 sleep. After 5 or 10 minutes, the first period of REM sleep appears. This first REM episode of the night is often quite short-lived, usually lasting between 1 to 10 minutes.

In humans, the end of a REM episode and the transition to non-REM stages of sleep may be associated with some body movement, and a very brief arousal or the transition may occur with no movements at all and no arousal. Often there is a change in body position such as a rolling over or a series of smaller adjustments.

Non-REM and REM sleep continue to alternate throughout the night. The duration of the first sleep cycle--from sleep onset to the end of the first REM episode--is typically 60 to 90 minutes.

The Second Sleep Cycle

In the second sleep cycle, there is less Stage 4 and more Stage 2 sleep. The REM portion of the second cycle is a little longer than the first, usually around 10 to 20 minutes. The duration of the second sleep cycle, measured from the end of the first REM sleep period to the end of the second, is generally longer than the first, averaging 100 to 110 minutes.

The Third Sleep Cycle And Beyond

In the third REM sleep period and beyond, Stages 3 and 4 are usually entirely absent or present in very small amounts the non-REM portion of these cycles is almost entirely Stage 2 sleep. REM episodes tend to become longer in later cycles--the fourth or fifth REM episode typically lasts 30 to 45 minutes--leaving room for some serious dreaming time towards the end of the night.

Brief episodes of wakefulness tend to occur in later cycles, generally in association with transitions between Stage 2 and REM sleep, but these brief arousals are usually not remembered in the morning.

Em suma

In summary, a night of sleep in an adult human is characterized by a cyclic alternation of non-REM sleep and REM sleep. The average period of this cycle is typically 90 minutes, although the lengths of individual cycles show considerable variability over the night.

Stages 3 and 4 sleep tend to predominate in non-REM during the first two cycles. Consequently, the first third of the night is usually considered the deepest sleep. REM sleep and non-REM Stage 2 predominate in the last third of the night.

Now that we've taken the journey through the night and understand how we progress through the stages of sleep, we'll turn our attention to the equally important topic of the journey through the day and how sleep affects our wakefulness. What does your brain have to say about how productive you are? Check out the next sleep step to find out.

Enjoy this page? Please help us pay it forward to others who would find it valuable by Liking, Sharing, Tweeting, Stumbling, and/or Voting below.


MH was supported by the European Union’s Horizon 2020 Research and Innovation Program under the Marie Skłodowska-Curie grant agreement no. 641805. AW was supported by United Kingdom Biotechnology and Biological Science Research Council (BBSRC) grant number BB/M002543/1, and JH by BBSRC grant number BB/M001660/1.

Os autores declaram que a pesquisa foi realizada na ausência de quaisquer relações comerciais ou financeiras que pudessem ser interpretadas como um potencial conflito de interesses.