Zestaw Medyczny


Wychodząc naprzeciw oczekiwaniom osób zajmujących się opracowywaniem wyników badań medycznych, stworzyliśmy specjalistyczny pakiet analityczny Zestaw Medyczny. W jego skład wchodzą narzędzia ułatwiające i przyspieszające proces obróbki danych medycznych, począwszy od czyszczenia danych, poprzez ich analizę, aż po przygotowanie końcowego raportu. Aplikacja dostarcza również użytkownikowi szereg specjalistycznych narzędzi do opracowywania danych medycznych, w tym m.in. moduł Metaanaliza i metaregresja, a także ułatwiające specyfikację i ocenę modeli kreatory: regresji liniowej i regresji logistycznej.

Pobierz wersję próbną

 

Poprawność danych

Dzięki tej opcji użytkownik ma możliwość łatwiejszego zdefiniowania reguł poprawności danych. W oknie definiowania reguł można wybrać nazwę zmiennej, wskazać żądane wartości lub odpowiadające im etykiety i połączyć je odpowiednim operatorem. Oprócz prostych reguł logicznych użytkownik ma możliwość wykorzystania zaawansowanej biblioteki funkcji zawartej w Statistica. Generowanie reguł ułatwia specjalnie przygotowany kreator. W arkuszu utworzone zostają zmienne wskazujące przypadki poprawne z punktu widzenia określonej reguły. Dodatkowo można utworzyć zmienną sprawdzającą poprawność względem wszystkich podanych reguł. Przygotowane reguły możemy zapisać do pliku konfiguracyjnego i wykorzystywać w innych modułach programu.

Braki danych

Moduł umożliwia przekodowanie braków danych według wskazanego schematu

  • Bogaty zestaw sposobów imputacji braków danych
    • Średnią, medianą, modalną
    • Średnią bądź medianą w grupach
    • Najbliższymi sąsiadami
    • Podaną wartością
  • Łatwe określanie tej samej akcji dla wielu zmiennych
  • Testowanie losowości braków danych
  • Zapis określonych schematów kodowania do pliku konfiguracji

 

Zmienne sztuczne

umożliwia zamianę cech jakościowych na odpowiadające im zmienne sztuczne. W programie zaimplementowano cztery schematy kodowania:

  • Kodowanie zero-jedynkowe na n zmiennych (n to liczba poziomów kodowanej cechy),
  • Kodowanie zero-jedynkowe na n-1 zmiennych,
  • Kodowanie z sigma ograniczeniami (quasi-eksperymentalne),
  • Kodowanie ortogonalne.

W przypadku wyboru trzech ostatnich schematów mamy możliwość ręcznego wyboru poziomu odniesienia.

Propensity score matching

Moduł przydatny dla osób prowadzących badania obserwacyjne bez możliwości wykonania zaplanowanego eksperymentu. Umożliwia korektę obciążenia mierzonego efektu spowodowanego nielosowym doborem do grupy interwencji i kontroli.

Moduł realizuje procedurę dopasowywania (matching) za pomocą szeregu algorytmów:

  • Metoda najbliższego sąsiada,
  • Metoda z limitem,
  • Metoda z promieniem,
  • Metoda Kernel.

SMOTE

Niezrównoważenie zbioru danych, czyli duża różnica pomiędzy licznościami poszczególnych klas, może doprowadzić do niesatysfakcjonujących wyników klasyfikacji. Model klasyfikacyjny uczony na takich danych może nie być w stanie poprawnie nauczyć się rozpoznawać obserwacje należące do klasy mniej licznej, co znacząco wpływa na jego przydatność i możliwość wdrożenia. Jednym z rozwiązań tego problemu jest zastosowanie metod przepróbkowania danych. Do takich metod zaliczana jest metoda SMOTE. Pozwala ona na uzyskanie idealnie zrównoważonych zbiorów danych poprzez tworzenie nowych, syntetycznych obserwacji na podstawie sąsiedztwa dostępnych obserwacji rzeczywistych.

ADASYN

Problem niezrównoważenia zbioru danych może być rozwiązany przy użyciu wielu metod. Zaliczają się do nich m.in.: losowe przepróbkowanie zbioru danych lub metoda SMOTE. Metody te nie sprawdzą się jednak w przypadku, gdy część obserwacji należących do klasy mniej licznej jest bardzo podobna do obserwacji z klasy bardziej licznej. W tej sytuacji lepsze rezultaty pozwala osiągnąć metoda ADASYN, która w sposób adaptacyjny dobiera liczbę obserwacji syntetycznych generowanych na podstawie danej obserwacji rzeczywistej. Dzięki temu obserwacje trudniejsze do poprawnej klasyfikacji, tzn. takie, w których sąsiedztwie znajduje się dużo obserwacji należących do innej klasy, posłużą do utworzenia większej liczby nowych obserwacji.

Krzywe ROC

Krzywe ROC (Receiver Operating Characteristic) są narzędziem służącym do oceny poprawności klasyfikatora (pojedynczej zmiennej lub całego modelu), zapewniają one łączny opis jego czułości i specyficzności. Ten sposób wspomagania systemu decyzyjnego jest szeroko stosowany w różnych obszarach analizy danych, m.in. W diagnostyce medycznej.

Moduł Krzywe ROC umożliwia:

  • kreślenie krzywych ROC dla prób zależnych i niezależnych,
  • obliczanie pola powierzchni pod krzywą,
  • porównywanie istotności różnicy pól pomiędzy dwiema krzywymi
  • ustalanie optymalnego punktu odcięcia dla podanych kosztów błędnej klasyfikacji i prawdopodobieństw a priori występowania badanego zjawiska,
  • ustalanie optymalnego punktu odcięcia na podstawie indeksu Youdena,
  • obliczanie miar FP,TP FN, FP, Sensitivity, Specificity, ACC, PPV, NPV, False positive ratio, False negative ratio, LR dla wszystkich możliwych punktów odcięcia,
  • kreślenie wykresów dla wymienionych powyżej miar,
  • porównanie krzywych za pomocą miar IDI oraz NRI.

 

Metaanaliza i metaregresja

Moduł jest narzędziem umożliwiającym syntezę wyników wielu niezależnych badań szczególnie w sytuacji, gdy nie mamy dostępu do danych surowych a dysponujemy jedynie zbiorczymi wynikami tych badań. Podejście takie pozwala rozszerzyć wnioski z pojedynczych badań na szerszą populację oraz zwiększyć wiarygodność otrzymanych wyników. Za pomocą dodatkowych narzędzi takich jak analiza niejednorodności, analiza w grupach czy metaregresja badacz może również ocenić zmienność uzyskanych wyników i wskazać jej źródła. Obliczenia są wykonywane dla szeregu miar efektu, a wyniki można przedstawić w postaci szczegółowych raportów oraz wykresów.

Moduł Metaanaliza i metaregresja umożliwia m.in.:

  • wprowadzenie wyników badań i gotowych (już wyliczonych) miar efektu;
  • wprowadzanie wyników przedstawionych w różnych formatach;
  • uwzględnienie w analizie badań z wynikami przedstawionymi w postaci różnych miar efektu (np. ilorazu szans oraz d Cohena);
  • obliczanie miar efektu dla pojedynczych badań;
  • obliczanie łącznych miar efektu dla modelu z efektem stałym i zmiennym (fixed effect model, random effects model);
  • wykonanie metaanalizy (meta-analysis) i utworzenie wykresu leśnego (forest plot);
  • przeprowadzenie analizy skumulowanej (cumulative meta-analysis);
  • wykonanie analizy niejednorodności (heterogeneity analysis) – miary Q, T2, I2;
  • utworzenie wykresów: L’Abbego i Galbraitha;
  • przeprowadzenie metaanalizy w grupach (subgroup analyses) dla modelu z efektem stałym oraz efektem zmiennym, z oddzielnym T2 i wspólnym T2;
  • wykonanie metaregresji (meta-regression) i przedstawienie jej wyników w postaci raportów i wykresu bąblowego;
  • przeprowadzenie analizy wrażliwości (sensitivity analysis) – analiza po dołączeniu grupy badań lub wyłączeniu wybranej kombinacji badań;
  • ocena błędu publikacji (publication bias);

 

Kreator Regresji Liniowej

Moduł umożliwia zbudowanie i ocenę modelu regresji liniowej. Korzystając z Kreatora, badacz krok po kroku wykonuje kolejne etapy związane z budową modelu regresji, poczynając od sposobu kodowania zmiennych oraz wyboru istotnych cech do analizy, poprzez sprawdzanie założeń i identyfikację interakcji, aż po ocenę dobroci dopasowania modelu, analizę reszt oraz zbadanie jego zdolności predykcyjnych. Funkcjonalność Kreatora obejmuje między innymi:

  • Wygodne określenie poziomów odniesienia predyktorów jakościowych
  • Definiowane transformacji predyktorów ilościowych
  • Uwzględnienie opóźnień, sezonowości oraz trendu w przypadku danych czasowych
  • Wykonanie jednoczynnikowej analizy dla wszystkich wybranych predyktorów
    • Oceny parametrów regresji
    • Ocena liniowości wpływu poszczególnych predyktorów ilościowych

  • Analiza współliniowości predyktorów
    • Analiza korelacji
    • Wyznaczanie skupisk skorelowanych zmiennych
    • Automatyczne wyznaczanie reprezentantów zidentyfikowanych skupisk zmiennych
  • Analiza interakcji
    • Automatyczna identyfikacja istotnych interakcji
    • Tworzenie rankingu interakcji
    • Wygodny wybór interesujących interakcji
  • Metody doboru zmiennych do modelu
    • Krokowa postępująca i wsteczna
    • Wprowadzanie postępujące
    • Eliminacja wsteczna
    • Lasso
    • ElasticNet
  • Zaawansowane schematy walidacji modelu
    • Próba ucząca i testowa
    • Wielokrotna ocena krzyżowa
  • Bogaty zestaw miar jakości modelu
  • Testowanie założeń regresji
    • Szereg raportów i testów oceniających:
      • Normalność reszt
      • Heteroskedastyczność reszt (test White’a)
      • Postać funkcyjną (test RESET)
      • Autokorelacje reszt
      • Liniowość
  • Analiza reszt oraz wartości wpływowych
  • Wykresy regresji cząstkowej oraz reszt cząstkowych
  • Test stabilności Chowa
  • Zapis modelu oraz transformacji w postaci kodu Visual Basica
  • Generowanie prognozy dla nowych danych

 

Kreator Regresji Logistycznej

Moduł umożliwia zbudowanie i ocenę modelu regresji logistycznej. Korzystając z Kreatora badacz, krok po kroku wykonuje kolejne etapy związane z budową modelu regresji, poczynając od sposobu kodowania zmiennych oraz wyboru istotnych cech do analizy, poprzez sprawdzanie założeń i identyfikację interakcji, aż po ocenę dobroci dopasowania modelu, analizę reszt czy zbadanie jego zdolności predykcyjnych. Funkcjonalność Kreatora obejmuje między innymi:

  • Wygodne określenie modelowanej klasy zmiennej zależnej oraz poziomów odniesienia predyktorów jakościowych
  • Wykonanie jednoczynnikowej analizy dla wszystkich wybranych predyktorów
    • Oceny parametrów regresji
    • Obliczanie ilorazów szans wraz z przedziałami ufności
    • Wykres leśny (forest plot) dla zmiennych jakościowych
  • Ranking istotności predyktorów na podstawie testu LR
  • Badanie linowości wpływu predyktorów ilościowych na logarytm szansy modelowanego zjawiska
  • Analiza współliniowości predyktorów
    • Analiza korelacji
    • Wyznaczanie skupisk skorelowanych zmiennych
    • Automatyczne wyznaczanie reprezentantów zidentyfikowanych skupisk zmiennych
  • Analiza interakcji
    • Automatyczna identyfikacja istotnych interakcji
    • Tworzenie rankingu interakcji
    • Wygodny wybór interesujących interakcji
  • Metody doboru zmiennych do modelu
    • Krokowa postępująca i wsteczna
    • Wprowadzanie postępujące
    • Eliminacja wsteczna
    • Lasso
    • ElasticNet
  • Zaawansowane schematy walidacji modelu
    • Próba ucząca i testowa
    • Wielokrotna ocena krzyżowa
  • Bogaty zestaw miar jakości modelu:
    • Testy LR
    • Odchylenie
    • Miary pseudo R2
    • AIC, BIC
    • Test Hosmera-Lemeshowa
    • Wykres leśny (forest plot) ilorazów szans
  • Analiza reszt oraz wartości wpływowych
  • Statystyki wspóliniowości
  • Analiza krzywych ROC
  • Wykresy przyrostu i zysku

 

Bootstrap

Bootstrap (z jęz. ang. sznurówka) jest zbiorczą nazwą metod pozwalających na bardzo dobre wyznaczenie (za pomocą przedziałów ufności) niepewności oszacowania rozmaitych wielkości statystycznych. Nieoceniona jest jego wartość dydaktyczna, gdyż przedziały ufności w tej metodzie powstają empirycznie, inaczej niż w podejściu klasycznym, nad którym ma on też przewagę poprzez wszechstronność – nie potrzeba tu założeń ani wiedzy dotyczącej rozkładu próby i statystyki testowej.


Praca z bootstrapem w programie Statistica jest naprawdę prosta. Wystarczy wskazać jedną lub dwie zmienne oznaczające próby i podać statystykę, dla której chcemy obliczyć przedziały ufności.

Po zatwierdzeniu dostajemy skoroszyt z zestawem wyników: arkuszem z wynikami liczbowymi oraz dwoma wykresami – estymatora jądrowego gęstości oraz rozkładu bootstrapowego z zaznaczonymi przedziałami ufności.


Nim zatwierdzimy obliczenia, możemy skorzystać z wielu opcji, które pojawią się po zaznaczeniu pola Pokaż więcej opcji. Można tu wskazać liczbę prób bootstrapowych (liczba losowanych podprób) i poziom ufności przedziału, wybrać rodzaj bootstrapu: nieparametryczny, półparametryczny, parametryczny oraz rodzinę rozkładów, jeśli wybierzemy bootstrap parametryczny. Dodatkowo możemy obliczyć przedziały ufności metodą bootstrap-t.

Układy naprzemienne badań klinicznych

Znacząca część badań klinicznych jest przeprowadzana w celu porównania dwóch leków często oznaczanych jak poniżej:

R – znany lek referencyjny,
T – nowy lek testowy.

Skuteczność lub – ogólniej – wartość leku wyrażana jest za pomocą pewnego wskaźnika liczbowego, jak np. najwyższe stężenie substancji leczniczej we krwi po podaniu leku. Nie zawsze chcemy dowieść, że skuteczność nowego leku jest wyższa, gdyż czasami dążymy do potwierdzenia tego, że obydwa leki działają podobnie, innymi słowy, że są równoważne.
Pierwszym przychodzącym na myśl i zarazem najprostszym sposobem przeprowadzenia badania klinicznego jest podzielenie badanych, zazwyczaj losowo, na dwie grupy i podanie badanym z pierwszej grupy leku R, a tym z drugiej grupy leku T. Okazuje się, że można to zrobić inaczej, tym bardziej, że może pojawić się problem objęcia badaniem wystarczającej liczby osób. Wówczas pomocne może być wykorzystanie pewnego układu naprzemiennego w badaniu klinicznym, kiedy to badani przyjmują obydwa leki, lecz (rzecz jasna) nie naraz, tylko w różnych kolejnościach w zależności od ich grupy.
Układy naprzemienne pozwalają na zmniejszenie liczby badanych koniecznej do uzyskania istotności statystycznej dotyczącej zależności między lekami, którą chcemy wykazać, o ile ma ona miejsce. Nie dzieje się tak zupełnie za darmo, ponieważ badanie w takim układzie trwa dłużej. Każdy badany przyjmuje lek i po pewnym czasie przyjmuje inny lek lub ponownie ten sam, a takich tur może być kilka.
Moduł Układy naprzemienne umożliwia pełną analizę i zaplanowanie badania dla dowolnego spośród ośmiu rodzajów układów naprzemiennych, na co składa się:

  • Test równoważności
  • Analiza wariancji
  • Analiza liczebności prób
  • Analiza mocy
  • Przydział badanych do grup

Wspomniane osiem rodzajów układów widnieje w liście rozwijalnej poniżej.

Układy są wyznaczone zestawem sekwencji, których symbole mają następujące znaczenie: przykładowo, w najprostszym układzie, tj. (RT, TR) są dwie grupy, w pierwszej z nich najpierw podawany jest lek R, a w drugiej turze lek T, natomiast w drugiej grupie dzieje się to w odwróconej kolejności. W układzie (RRTT, RTTR, TRRT, TTRR) są cztery grupy i cztery tury; w grupie (sekwencji) TRRT badani otrzymują lek R w drugiej i trzeciej turze oraz lek T w pierwszej i czwartej turze.
Wynikiem analizy danych zebranych po ukończonym badaniu są dwa arkusze i wykres: tabela analizy wariancji, wyniki testu równoważności w zadanych przez nas granicach (jak np. [80%, 125%]) i wykres przedstawiający obliczony przedział ufności. Przykładowy zestaw wyników widnieje poniżej.

Jeżeli badanie jest w trakcie planowania, to możemy przeprowadzić analizę liczebności oraz analizę mocy, obie pod kątem wykazania równoważności leków we wskazanych przez nas granicach. Wystarczy do tego podać podstawowe wielkości, jak spodziewany iloraz miar skuteczności leków czy rozrzut wyników w postaci np. odsetka zmienności śródosobniczej. Poza tym moduł Układy naprzemienne umożliwia utworzenie gotowego do wprowadzania danych (tj. wartości zmiennej zależnej) arkusza z losowym przydziałem do różnych sekwencji, po podaniu ich żądanych liczności.


 

ANOVA – układy niestandardowe

 

W skład grupy analiz ANOVA – układy niestandardowe wchodzą moduły pozwalające badaczowi na wygodne i intuicyjne zdefiniowanie mniej standardowych układów ekspery­mentów. Dzięki nowym modułom badacz może zdefiniować układy typu:

  • split plot, split block, bloki randomizowane,
  • naprzemienny prosty
  • naprzemienny podwójny.

 

Split-plot, split-block i bloki randomizowane

Dzięki temu modułowi możemy przeprowadzić analizę bloków randomizowanych, split-plot oraz split-block. Te rodzaje analizy wariancji przydatne są zwłaszcza w doświadczeniach rolniczych, gdzie badaną zmienną zależną jest wielkość plonu, a ocenianymi czynnikami są odmiany, blok doświadczenia itp.

Aby przeprowadzić analizę, badacz musi w pierwszej kolejności określić interesujący go układ oraz liczbę czynników (od jednego do trzech). Po zatwierdzeniu typu analizy okno wyboru zmiennych dostosuje swój wygląd do jej wymagań.

Test nieparametryczny dla układu naprzemiennego prostego

Test ten stwierdza bez żadnych założeń o rozkładzie, czy istnieją różnice między skutecznością dwóch leków na podstawie wyników podawania ich w układzie naprzemiennym prostym. Układ taki oznacza, że pewne dwa leki, dla ustalenia uwagi oznaczmy je 'R’ – referencja oraz 'T’ – test, zostały podane w kolejności RT jednej grupie pacjentów oraz w kolejności TR drugiej grupie. Niepewność oszacowania jest obliczana za pomocą tak zwanego estymatora Hodgesa-Lehmanna.

 

Test parametryczny dla układu naprzemiennego podwójnego

Test ten jest używany do analizy wyników badania w układzie naprzemiennym podwójnym, gdy wyniki liczbowe spełniają założenia analizy wariancji. Jest to rodzaj badania porównującego skuteczność dwóch leków A i B, w którym każdy pacjent przyjmuje obydwa rodzaje leków w dwóch różnych dawkach: niższej (1) i wyższej (2). Mamy zatem cztery grupy odpowiadające sposobom przyjmowania leków: A1 i B2, A2 i B1, B1 i A2 oraz B2 i A1.
W wyniku analizy badacz uzyskuje raport analogiczny do wyniku klasycznej analizy wariancji oraz wykres analogiczny do zamieszczonego poniżej.

 


 

Porównanie i ocena metod

Grupa Porównanie i ocena metod zawiera szereg narzędzi umożliwiających sprawdzenie, czy dwie metody pomiaru dają równoważne wyniki. Narzędzia te pozwalają również na ocenę jakości wybranego sposobu pomiaru, poprzez wyznaczenie pewnych charakterystyk świadczących o jego jakości. Grupa zawiera następujące moduły:

  • Wykres Blanda-Altmana
  • Regresja Passinga-Babloka i Deminga
  • Wykres górkowy
  • Wykres Youdena
  • Granice wykrywalności

Wykres Blanda-Altmana

Wykres Blanda-Altmana wykorzystywany najczęściej w chemometrii i biostatystyce przedstawia stopień zgodności pomiędzy dwiema różnymi próbami, bądź wskaźnikami. Merytorycznie jest on identyczny z wykresem średnia-różnica Tukeya.

Jednym z głównych zastosowań wykresu Blanda-Altmana jest porównanie dwóch wskaźników klinicznych, z których każdy obciążony jest pewnym błędem pomiaru. Może być on także wykorzystany do porównania nowej techniki pomiaru, bądź wskaźnika z obowiązującym złotym standardem.
Na wykresie przedstawia się przedziały zgodności liczone jako średnia różnica pomiędzy badanymi wskaźnikami ± 1,96* odchylenie standardowe różnicy.

Regresja Passinga-Babloka i Deminga

Obydwie metody regresji mają na celu porównanie dwóch metod pomiarowych i różnią się istotnie od zwykłej regresji liniowej. Wynika to z faktu, że błędy losowe dotyczą obu badanych zmiennych, natomiast w podstawowych metodach przyjmujemy, że znamy dokładną wartość zmiennej odniesienia. Inna jest również interpretacja danych. Już na początku wiemy, że każda para obserwacji to pomiar tej samej wartości na różne sposoby, i chcemy sprawdzić, czy metody są równoważne, nie szukamy natomiast związków przyczynowo-skutkowych między nimi.

Regresja Passinga-Babloka służy wyłącznie do sprawdzania równoważności dwóch metod pomiarowych, nie zaś do oceny zależności liniowej między metodami. Regresja Deminga pozwala na ocenę zależności liniowej dwóch sposobów pomiaru, a nie tylko na określenie równoważności. Jest ona odpowiednikiem regresji liniowej dla przypadku, gdy błędy pomiarów związane są z każdą ze zmiennych.

Wykres górkowy

Wykres górkowy (mountain plot) służy do porównywania metod pomiaru i jest użytecznym uzupełnieniem innych narzędzi, jak np. wykres Blanda-Altmana. Wykres tworzony jest poprzez wyznaczenie percentyli dla uszeregowanych rosnąco różnic między wynikami nowej metody i metody odniesienia. Nazwa wykresu pochodzi stąd, że percentylom rzędu powyżej 50 przyporządkowujemy i zaznaczamy na wykresie (100 rząd percentyla), co daje swoisty dla tego rodzaju wykresu wierzchołek. W module, oprócz metody odniesienia, możemy wskazać jedną lub dwie nowe metody. Poniżej przedstawiono przykładowy wykres uzyskany w module.

Wykres Youdena

Za pomocą wykresu Youdena możemy ocenić rozbieżności w dwukrotnych pomiarach laboratoryjnych tych samych próbek. Z tego użytecznego wykresu rozrzutu wyczytamy wielkość błędu systematycznego wynikającego ze sposobu pomiaru w danym laboratorium w odniesieniu do wielkości błędu czysto losowego.

Na wykresie Youdena widnieją zawsze dwie proste: pionowa i pozioma przechodzące przez środek skupiska punktów, a dokładniej krzyżują się one w punkcie zwanym medianą manhattańską. Na wykresie mamy dodatkowo możliwość zaznaczenia okręgów b% i prostokątów c SD i wówczas wyrysowana zostanie także odpowiednia prosta ukośna. Okno analizy przedstawiono poniżej:

Granice wykrywalności

Zagadnienie wyznaczania granicy wykrywalności jest ważnym problemem w wielu badaniach laboratoryjnych. Na przykład przy ocenie testów na obecność narkotyków czy chorób zakaźnych trzeba określić, przy jakim poziomie stężenia rozpatrywanej substancji test da pozytywny wynik z odpowiednio niskim prawdopodobieństwem błędu. Zalecana metoda badania takich właściwości zakłada wielokrotne przeprowadzenie testu przy różnych poziomach stężenia, a następnie dopasowanie do danych tzw. krzywej probitowej, na podstawie której jest wyliczana graniczna wartość. Nowy moduł umożliwia automatyczne przeprowadzenie obliczeń dla zadanego poziomu wykrywalności, zwracając punktowe i przedziałowe oceny granicznego stężenia oraz wykresy ilustrujące zmierzone wyniki.

Miary efektu dla tabel 2×2

jest dedykowanym modułem przeznaczonym do obliczania na podstawie tabeli 2×2 szeregu wskaźników powiązania lub efektu. Na przykład umożliwia on obliczenie efektu związanego z binarną zmienną zależną, spowodowanego manipulacją binarną zmienną niezależną. Moduł umożliwia zarówno obliczenie wskaźników na podstawie danych surowych, jak również ręczne wprowadzenie lub korektę wartości w tabeli.

Miary te mają szczególne znaczenie w diagnostycznej analizie związków przyczynowych na podstawie rozkładów w tabeli obrazującej relacje typu test-efekt.

Test post hoc ANOVA Friedmana

Moduł umożliwia wykonanie testów post hoc dla nieparametrycznej analizy wariancji dla prób zależnych. Test może być oparty na średnich bądź sumach rang.

Karta CUSUM ważona ryzykiem

Moduł pozwala na monitorowanie jakości procesów medycznych w trybie on-line. Narzędzie to przeznaczone jest do wewnętrznego monitorowania jakości. Umożliwia śledzenie przebiegu badanego procesu w czasie zbliżonym do rzeczywistego. Pozwala na szybkie wychwycenie niepokojących objawów (wysoka czułość) i adekwatną reakcję na zaistniałą sytuację.

Badanie ciągów pomiarów

Moduł ten służy do analizy zgromadzonych wartości pomiarów, które były wykonywane w pewnych odstępach czasowych u pacjentów należących do różnych grup. Mierzyć możemy na przykład stężenie ustalonej substancji we krwi w różnych momentach czasu, który upłynął od podania leku pacjentowi, a następnie badać, czy występuje statystycznie istotna różnica między różnymi grupami pacjentów pod względem pewnej wielkości obliczanej z wyników pomiarów. Może to być stężenie maksymalne, odsetek czasu poniżej pewnej wybranej wartości, pole pod krzywą stężenie-czas lub szereg innych parametrów.

Przedziały odniesienia

Przedmiotem obliczeń są przedziały odniesienia dla wybranej zmiennej wraz z przedziałami ufności końców tych przedziałów. Zostaje też utworzony odpowiedni wykres. Na przykład 95% przedział odniesienia to taki przedział, do którego przeciętnie trafia 95% wszystkich obserwacji. Nie wiadomo, gdzie dokładnie znajdują się jego końce, więc ich wartości są szacowane wraz z podaniem dla nich przedziałów ufności, by móc poznać wielkość niepewności tego szacowania. W module możemy w zależności od potrzeb wybrać różne sposoby obliczeń.

Przedział ufności dla ilorazów

Moduł umożliwia wyznaczenie przedziału ufności dla ilorazu dwóch średnich z wykorzystaniem metody Fiellera (1954). Analiza wymaga podania średnich, odchyleń standardowych oraz liczebności obu porównywanych podgrup – można wprowadzić je bezpośrednio lub wyliczyć z danych. Przedział ufności dla ilorazów może być wykorzystywany np. do analiz równoważności działania leków.

Profile ryzyka

Jest to graficzna metoda stosowana przede wszystkim w badaniach medycznych do przedstawiania charakteru zależności między czynnikami ilościowymi a wystąpieniem modelowanej choroby czy powikłania. Procedura polega na przedstawieniu, jak zmienia się iloraz szans (OR) wraz z wartością czynnika, przy czym OR obliczany jest na podstawie częstotliwości wystąpienia modelowanego stanu dla wartości czynnika,
mieszczących się w oknie o ustalonej szerokości.
Tak wyznaczony profil ryzyka można wzbogacić o wygładzenie metodą LOWESS, pasy ufności oraz wartość odniesienia (zwykle przyjmuje się OR=1). Profil ryzyka może sam w sobie stanowić cenny i efektowny wkład do publikacji lub pomóc w budowie modelu prognostycznego (np. poprzez ocenę liniowości wpływu czynnika na ryzyko).

Metodę tę można stosować nie tylko w medycynie, ale także w dowolnych innych zagadnieniach, gdzie badany jest związek między wystąpieniem pewnego stanu a czynnikami ilościowymi.

Wielowymiarowe testy normalności

Gdy mamy do czynienia z wielowymiarowymi danymi, opisanymi grupą zmiennych, często występuje potrzeba stwierdzenia czy pochodzą one z pewnego wielowymiarowego rozkładu normalnego. Możemy to zrobić właśnie tutaj – w skład wchodzą cztery testy statystyczne (Mardii skośności, Mardii smukłości, Henzego-Zirklera i Doornika-Hansena) oraz, pomocniczo, wykres kwantylowy odległości Mahalanobisa.

Wielowymiarowy rozkład normalny to własność silniejsza niż rozkład normalny dla każdej zmiennej z osobna, więc aby go zbadać nie wystarczy wielokrotnie przeprowadzić test normalności (jednowymiarowej), jak np. test Shapiro-Wilka, dla każdej współrzędnej.

Na normalność wskazuje w testach wartość p większa niż poziom istotności oraz na wykresie układanie się punktów wzdłuż prostej. Dodatkowo, jeśli dane są dwu- lub trójwymiarowe, to dopasowany dwu- lub trójwymiarowy rozkład normalny zostaje zobrazowany za pomocą wykresu rozrzutu.

Badanie rozkładu empirycznego

Moduł ten umożliwia wstępne zbadanie rozkładu wskazanej przez nas zmiennej ilościowej. To szczególnie liczy się gdy nic nie wiadomo o tym rozkładzie. Standardowo można do tego użyć histogramu, jednakże przedstawione narzędzie jest czulsze – oprócz słupków histogramu widnieje tu wykres gęstości rozkładu, szacowanej za pomocą estymatora jądrowego gęstości, oraz wykres dystrybuanty.

Test Mosesa skrajnych reakcji

Nieparametryczny test porównujący dwie grupy: kontrolną i badaną, pod względem obserwacji odstających. Przyjęcie hipotezy alternatywnej oznacza, że w badanej grupie bardziej prawdopodobne jest przyjęcie wartości odstających. Jako statystykę test ten przyjmuje rozstęp między największą a najmniejszą wartością z grupy kontrolnej w złączonej populacji grupy kontrolnej i badanej. Wraz z wynikami testu otrzymujemy wykres ramka-wąsy. Graficznie reprezentuje on niektóre z cech rozkładu, które również mogą być pomocne przy ocenie ekstremalnych wartości w grupach.

Test mediany Mooda

Test nieparametryczny sprawdzający równość median w dwóch lub więcej próbkach. Dane w każdej próbce dzielone są na dwie grupy. W pierwszej występują wartości większe, a w drugiej mniejsze lub równe medianie wszystkich obserwacji. Następnie stosuje się test chi-kwadrat Pearsona w celu określenia, czy obserwowane liczności w każdej próbce różnią się od oczekiwanych liczności wyprowadzonych z rozkładu połączenia obu grup.

Miary DFBETAS do oceny wpływu punktów odstających

Występowanie w zbiorze danych obserwacji znacząco odbiegających od pozostałych pod względem wartości charakteryzujących ich parametrów może mieć duży wpływ na uzyskiwane wyniki analiz i doprowadzić do wyciągnięcia błędnych wniosków. W wielu przypadkach może to skutkować dużymi stratami finansowymi lub wręcz spowodować zagrożenie dla życia lub zdrowia człowieka. Identyfikacja obserwacji odstających jest więc istotnym elementem wstępnej analizy danych i ich przygotowania do dalszych, bardziej zaawansowanych analiz.

Jedną z metod identyfikacji obserwacji odstających jest analiza wartości DFBETAS. Metoda ta pozwala na szybką i wiarygodną identyfikację obserwacji mających największy wpływ na wartości współczynników liniowych modeli regresyjnych budowanych na analizowanym zbiorze danych. Wyniki przedstawione w postaci graficznej zapewniają prostotę interpretacji i mogą stanowić cenny element raportów oraz publikacji naukowych.

Nomogram

Nomogram obrazuje zbudowany model regresji logistycznej. Oznacza to model zależności prawdopodobieństwa wystąpienia pewnego zdarzenia od wartości predyktorów, wśród których mogą być zarówno zmienne ilościowe, jak i jakościowe. Dzięki nomogramowi można analizować, w jaki sposób dane wartości poszczególnych predyktorów wpływają na to prawdopodobieństwo. Miarą takiego wpływu jest punktacja, a suma punktów odpowiadających poszczególnym predyktorom bezpośrednio przekłada się na prawdopodobieństwo wystąpienia zdarzenia.

Iloraz szans (OR) metodą Garta i Fagellanda-Newcombe’a

Obie te metody obejmują obliczenie estymatora punktowego ilorazu szans oraz jego przedziału ufności, gdy mamy dane liczności ujęte w tabeli 2×2. Metody te są szczególnie warte zastosowania w przypadku, gdy niektóre z tych liczności są niewielkie.

Testy post-hoc bez jednorodności wariancji

Jeżeli spełnione jest tylko założenie normalności w jednoczynnikowej analizie wariancji, zaś wariancja jest niejednorodna, to wciąż możliwe są testy parametryczne. Test ogólny w takim przypadku to test F Welcha, zaś jako test post-hoc mamy do wyboru następujące cztery: test Gamesa-Howella, test T2 Tamhane’a, test T3 Dunnetta oraz test C Dunnetta.

Tabele liczności dla wielu zmiennych jakościowych

Narzędzie to służy do utworzenia naraz tabel liczności dla pewnej wskazanej zmiennej jakościowej względem dowolnej liczby innych zmiennych jakościowych. Każda z tych tabel zostaje opatrzona wynikiem testu chi-kwadrat, mówiącym o istotności lub braku istotności powiązania wartości obu zmiennych.

C Harrella

Miara dobroci dopasowania modeli, które generują oceny ryzyka. Jest używana do oceny modeli ryzyka w analizie przeżycia, gdzie dane mogą być cenzurowane. Intuicja stojąca za indeksem C Harrella jest następująca: nasz model ryzyka przypisuje każdemu pacjentowi ocenę ryzyka i jeśli nasz model ryzyka jest dobry, pacjenci, którzy mieli krótszy czas do wystąpienia choroby, powinni mieć wyższe wyniki ryzyka. Sprowadzając tę intuicję do dwóch pacjentów: pacjent z wyższym wskaźnikiem ryzyka powinien mieć krótszy czas do wystąpienia choroby.

Ogólne możliwości programu

Kreator testów statystycznych przeznaczony jest dla osób pragnących zweryfikować prawdziwość swojej hipotezy badawczej za pomocą testu statystycznego, mających jednocześnie trudności z wyborem testu, który byłby najbardziej odpowiedni w ich sytuacji. Kreator automatycznie sprawdza wszelkie założenia związane z danym typem problemu i w zależności od ich spełnienia proponuje poprawny test. Korzystając z tego narzędzia, badacz musi jedynie określić kwestie merytoryczne prowadzonej analizy, takie jak:

  • Jaką analizę chcemy przeprowadzić?
  • Czy badane próby są zależne/niezależne od siebie?
  • Ile grup analizujemy?
  • Na jakiej skali mierzone są badane zmienne?

Wynikiem działania programu jest skoroszyt zawierający wyniki poszczególnych testów (dotyczące założeń i głównego pytania) razem z interpretacją oraz wykresy i dodatkowe analizy generowane standardowo przy danym rodzaju badań.

W obecnej wersji Kreator testów statystycznych umożliwia wykonanie dwóch rodzajów analiz:

  • Testy dla pojedynczej zmiennej,
  • Badanie istotności różnic.

Wybranie jednego z nich spowoduje wyświetlenie schematu w postaci drzewa, dzięki któremu badacz w prosty, intuicyjny sposób może określić, jaki dokładnie typ analizy chce przeprowadzić.

Testy dla pojedynczej zmiennej

W celu przejścia do schematu dotyczącego analizy pojedynczej zmiennej wystarczy kliknąć w odpowiednie pole rodzaju analiz. Na ekranie pojawi się poniższy schemat.

Jak można zauważyć, w chwili obecnej program oferuje trzy typy testów dla pojedynczej zmiennej:

  • Normalność,
  • Losowość,
  • Obserwacje odstające.

W celu przeprowadzenia analizy wystarczy wybrać jeden z nich. Zostanie wtedy odblokowana możliwość wyboru zmiennych oraz wykonania analizy.

Badanie istotności różnic

Po wybraniu tego rodzaju analizy, podobnie jak w przypadku analizy dla jednej zmiennej, pojawi się schemat ułatwiający dokładne określenie właściwej ścieżki postępowania. Kreator będzie prowadził użytkownika krok po kroku, zadając mu kolejne pytania pozwalające doprecyzować rodzaj analizowanego problemu. Przykładowy schemat decyzyjny zamieszczono poniżej.

Po udzieleniu odpowiedzi na powyższe pytania, użytkownik musi jedynie wybrać zmienne i uruchomić analizę. Program sprawdzi założenia związane z daną klasą problemu, wybierze odpowiedni test i wygeneruje komplet wyników wraz z ich interpretacją.

Dodatkowe możliwości programu

Jak już wcześniej nadmieniono, program przeznaczony jest dla badaczy mających nieco mniejsze doświadczenie w analizie statystycznej. Parametry programu są zatem dostosowane do najbardziej typowych sytuacji. Bardziej doświadczeni analitycy mają jednakże możliwość określenia szeregu szczegółowych opcji dotyczących wyboru i konfiguracji testów. Ważnym atutem kreatora jest niewątpliwie możliwość zapisu raportu z analizy, zarówno w formacie Statistica, jak i MS Word. Poniżej zamieszczono fragment przykładowego raportu w formacie MS Word.