Zestaw do Analiz Marketingowych i Rynkowych


Jest to program ułatwiający i przyspieszający proces opracowania wyników badań, ze szczególnym uwzględnieniem badań ankietowych. W skład programu wchodzi zestaw narzędzi do czyszczenia i przygotowania danych do specyfiki analiz pochodzących z badań marketingowych. Za jego pomocą możliwe jest szybkie rekodowanie danych, przekodowanie na zmienne sztuczne, zliczanie wystąpień określonego zakresu wartości w wybranych zmiennych. Dostępne są także zaawansowane narzędzia do sprawdzania poprawności danych, podsumowania skal pomiarowych i wizualizacji, np. wykres dyferencjału semantycznego. Zestaw obejmuje również inne moduły analityczne przydatne w codziennej pracy analityków np. analizę conjoint, PROFIT czy uogólnioną metodę składowych głównych.

Pobierz wersję próbną

 

Poprawność danych

Dzięki tej opcji użytkownik ma możliwość łatwiejszego zdefiniowania reguł poprawności danych. W oknie definiowania reguł można wybrać nazwę zmiennej, wskazać żądane wartości lub odpowiadające im etykiety i połączyć je odpowiednim operatorem. Oprócz prostych reguł logicznych użytkownik ma możliwość wykorzystania zaawansowanej biblioteki funkcji zawartej w Statistica. Generowanie reguł ułatwia specjalnie przygotowany kreator. W arkuszu utworzone zostają zmienne wskazujące przypadki poprawne z punktu widzenia określonej reguły. Dodatkowo można utworzyć zmienną sprawdzającą poprawność względem wszystkich podanych reguł. Przygotowane reguły możemy zapisać do pliku konfiguracyjnego i wykorzystywać w innych modułach programu.

Braki danych

Moduł umożliwia przekodowanie braków danych według wskazanego schematu

  • Bogaty zestaw sposobów imputacji braków danych
    • Średnią, medianą, modalną
    • Średnią bądź medianą w grupach
    • Najbliższymi sąsiadami
    • Podaną wartością
  • Łatwe określanie tej samej akcji dla wielu zmiennych
  • Testowanie losowości braków danych
  • Zapis określonych schematów kodowania do pliku konfiguracji

 

Zmienne sztuczne

umożliwia zamianę cech jakościowych na odpowiadające im zmienne sztuczne. W programie zaimplementowano cztery schematy kodowania:

  • Kodowanie zero-jedynkowe na n zmiennych (n to liczba poziomów kodowanej cechy),
  • Kodowanie zero-jedynkowe na n-1 zmiennych,
  • Kodowanie z sigma ograniczeniami (quasi-eksperymentalne),
  • Kodowanie ortogonalne.

W przypadku wyboru trzech ostatnich schematów mamy możliwość ręcznego wyboru poziomu odniesienia.

Szybkie rekodowanie

Moduł umożliwia przekodowanie wybranych wartości (dowolna wartość, braki danych, pełne dane, wartość z podanego zakresu) zmiennych do wskazanych nowych wartości. Użytkownik może przekodować jednocześnie wiele zmiennych, a nowe kody mogą zostać wprowadzone do tych samych lub nowych zmiennych.

Przekształcenie zmiennych

Moduł ten umożliwia normalizację danych do skali testów psychologicznych (stenowej, tenowej, staninowej). Dodatkowo moduł umożliwia przekształcenie zmiennych za pomocą szeregu przekształceń np. operacji soft-max czy normalizacji.

Zliczanie wartości

Moduł umożliwia utworzenie dodatkowej zmiennej, która zawiera informację, ile razy w danym przypadku w określonej liście zmiennych wystąpiła wskazana przez użytkownika wartość (dowolna wartość, braki danych, pełne dane, wartość z podanego zakresu).

Wielokrotne odpowiedzi

Moduł umożliwia przekształcenie zmiennych zakodowanych w formie wielokrotnych odpowiedzi na wielokrotne dychotomie. Uzupełniająca funkcjonalność umożliwia posortowanie wartości w zmiennych wielokrotnych odpowiedzi zgodnie z kolejnością podaną przez użytkownika.

Liczebność próby

Pierwszym modułem wchodzącym w skład grupy Przygotowanie próby jest Kalkulator liczebności próby. Umożliwia on obliczenie minimalnej liczebności próby pozwalającej z zadanym błędem oszacować liczebność próby dla frakcji lub dla zadanej liczebności próby obliczyć błąd oszacowania. Dodatkowymi parametrami uwzględnianymi w analizie są Poziom ufności, Liczebność populacji oraz Wskaźnik struktury.

Ważenie wieńcowe

Moduł realizuje ważenie wieńcowe przypadków (RIM weighting). Moduł obsługuje ważenie względem maksymalnie sześciu wymiarów. Aby wygenerować zestaw wag dla przypadków wystarczy podanie rozkładów brzegowych dla poszczególnych wymiarów.

Propensity score matching

Moduł przydatny dla osób prowadzących badania obserwacyjne bez możliwości wykonania zaplanowanego eksperymentu. Umożliwia korektę obciążenia mierzonego efektu spowodowanego nielosowym doborem do grupy interwencji i kontroli.

Moduł realizuje procedurę dopasowywania (matching) za pomocą szeregu algorytmów:

  • Metoda najbliższego sąsiada,
  • Metoda z limitem,
  • Metoda z promieniem,
  • Metoda Kernel.

Podział na podpróby

Moduł Podział na podpróby pozwala na przygotowanie prób uczącej, testowej oraz (opcjonalnie) walidacyjnej na potrzeby budowy modeli predykcyjnych (klasyfikacyjnych lub regresyjnych).

Moduł oferuje trzy główne opcje podziału zbioru na podpróby:

  • Prosty podział umożliwia podzielenie zbioru danych w sposób losowy na próby: uczącą, testową oraz walidacyjną (opcjonalnie) zgodnie z proporcjami określonymi w grupie Proporcje klas.
  • Zbalansuj uczący pozwala na przygotowanie próby uczącej zawierającej równe proporcje klas zmiennej zależnej. Opcja ta jest przydatna w sytuacji, gdy problem, jaki chcemy analizować, jest zadaniem klasyfikacyjnym, z dwoma klasami zmiennej zależnej. W zależności od wyboru opcji w grupie Zbalansuj uczący, program dokona nadpróbkowania (oversampling) rzadszej klasy lub zmniejszy liczebność częstszej klasy (downsampling).
  • Analiza skupień pozwala dokonać podziału na podpróby na podstawie losowania przypadków ze skupień utworzonych w wyniku analizy k-średnich dla wybranych predyktorów. Metoda jest przydatna zwłaszcza w sytuacji mniejszych zbiorów danych, pozwala uniknąć nieproporcjonalnego rozłożenia danej klasy przypadków w podpróbach.

W wyniku analizy badacz otrzymuje nowy zbiór danych, który oprócz pierwotnego zestawu zmiennych zawiera dodatkowo kolumnę informującą, do jakiej próby (uczenie, test, walidacja) trafił konkretny przypadek.

SMOTE

Niezrównoważenie zbioru danych, czyli duża różnica pomiędzy licznościami poszczególnych klas, może doprowadzić do niesatysfakcjonujących wyników klasyfikacji. Model klasyfikacyjny uczony na takich danych może nie być w stanie poprawnie nauczyć się rozpoznawać obserwacje należące do klasy mniej licznej, co znacząco wpływa na jego przydatność i możliwość wdrożenia. Jednym z rozwiązań tego problemu jest zastosowanie metod przepróbkowania danych. Do takich metod zaliczana jest metoda SMOTE. Pozwala ona na uzyskanie idealnie zrównoważonych zbiorów danych poprzez tworzenie nowych, syntetycznych obserwacji na podstawie sąsiedztwa dostępnych obserwacji rzeczywistych.

ADASYN

Problem niezrównoważenia zbioru danych może być rozwiązany przy użyciu wielu metod. Zaliczają się do nich m.in.: losowe przepróbkowanie zbioru danych lub metoda SMOTE. Metody te nie sprawdzą się jednak w przypadku, gdy część obserwacji należących do klasy mniej licznej jest bardzo podobna do obserwacji z klasy bardziej licznej. W tej sytuacji lepsze rezultaty pozwala osiągnąć metoda ADASYN, która w sposób adaptacyjny dobiera liczbę obserwacji syntetycznych generowanych na podstawie danej obserwacji rzeczywistej. Dzięki temu obserwacje trudniejsze do poprawnej klasyfikacji, tzn. takie, w których sąsiedztwie znajduje się dużo obserwacji należących do innej klasy, posłużą do utworzenia większej liczby nowych obserwacji.

Dyferencjał semantyczny

Moduł umożliwia wygenerowanie wykresu dyferencjału semantycznego (dla średnich bądź median) oraz wskazanie ewentualnych zmiennych grupujących.

Skala rangowa

Moduł pozwala użytkownikowi na wykonanie rankingu wartości wchodzących w skład skali rangowej oraz liczby wskazań danej wartości na każdej pozycji. Analiza obsługuje dwa sposoby kodowania (zmienne oznaczają oceniane cechy, a wartości przypisane rangi lub zmienne reprezentują kolejne rangi, a wartości oznaczają oceniane cechy).

Skala pozycyjna

Moduł umożliwia utworzenie zestawienia rozkładów procentowych wartości zmiennych reprezentujących cechy opisane za pomocą tej skali. Dodatkowo dostępna jest opcja wyróżniania poziomów najczęściej i najrzadziej reprezentowanych.

Skala Stapela

Pozwala on na wygenerowanie odpowiedniego wykresu podsumowującego tę skalę na podstawie średnich bądź median; dodatkowo użytkownik może wskazać zmienną grupującą oraz określić szereg parametrów wykresu.

Model Thurstone’a

Moduł umożliwia zbudowanie metrycznej skali preferencji na podstawie danych o preferencjach uzyskanych z wykorzystaniem skali porównań parami bądź skali rangowej (jest ona przekształcana do skali porównań parami).

Dodatkowo uzyskane wyniki można zobrazować za pomocą mapy percepcji utworzonej metodą skalowania wielowymiarowego.

Rzetelność skali

Moduł analizuje wymiarowość analizowanego zbioru, determinując, która z pozycji powinna wejść w skład skali. Następnie oblicza różnego rodzaju miary rzetelności skali oraz ocenia siłę dyskryminacyjną całej skali oraz poszczególnych pozycji.

Współczynniki zgodności sędziów

Moduł pozwalają na obliczenie Kappy Cohena oraz Pi Scotta umożliwiających ocenę zgodności pomiędzy dwoma sędziami przy założeniu, że ich oceny są wyrażane na skali nominalnej. Kappa Fleissa rozszerza możliwość obliczania wskaźnika dla więcej niż dwóch sędziów. Alfa Krippendorfa pozwala dodatkowo na uwzględnienie innych skal niż nominalna (przy dowolnej liczbie sędziów).

Krzywe ROC

Krzywe ROC (Receiver Operating Characteristic) są narzędziem służącym do oceny poprawności klasyfikatora (pojedynczej zmiennej lub całego modelu), zapewniają one łączny opis jego czułości i specyficzności. Ten sposób wspomagania systemu decyzyjnego jest szeroko stosowany w różnych obszarach analizy danych, m.in. W diagnostyce medycznej.

Moduł Krzywe ROC umożliwia:

  • kreślenie krzywych ROC dla prób zależnych i niezależnych,
  • obliczanie pola powierzchni pod krzywą,
  • porównywanie istotności różnicy pól pomiędzy dwiema krzywymi
  • ustalanie optymalnego punktu odcięcia dla podanych kosztów błędnej klasyfikacji i prawdopodobieństw a priori występowania badanego zjawiska,
  • ustalanie optymalnego punktu odcięcia na podstawie indeksu Youdena,
  • obliczanie miar FP,TP FN, FP, Sensitivity, Specificity, ACC, PPV, NPV, False positive ratio, False negative ratio, LR dla wszystkich możliwych punktów odcięcia,
  • kreślenie wykresów dla wymienionych powyżej miar,
  • porównanie krzywych za pomocą miar IDI oraz NRI.

 

Conjoint

Moduł pozwala na wykonanie analizy dla zmiennych zależnych mierzonych na skali co najmniej przedziałowej. Program oblicza cząstkowe użyteczności poszczególnych poziomów cech (przedstawiane także w formie wykresów), a także użyteczności całkowite dla każdej kombinacji cech produktu i każdego respondenta oraz ranking profili. Dodatkowo obliczane są relatywne oraz sumaryczne ważności analizowanych zmiennych.

Analiza aglomeracji

Oprócz standardowych miar odległości, takich jak odległość Euklidesa czy Czebyszewa, najnowsza wersja modułu zawiera osiem miar dedykowanych danym zero-jedynkowym. Są to unormowane oceny odmienności, uwzględniające specyfikę danych binarnych. Jeżeli grupujemy wyłącznie takie cechy, interpretacja wyników może być łatwiejsza niż w przypadku tradycyjnej oceny odległości.

PROFIT

Moduł wykorzystuje metodę skalowania wielowymiarowego do budowy klasycznej mapy percepcji. W drugim kroku do analizy wykorzystywane są informacje o preferencjach analizowanych marek i na ich podstawie na mapę percepcji nakładane są dodatkowe osie opisujące wymiary i ułatwiające interpretację zbudowanej mapy.

Uogólniona PCA

Moduł jest narzędziem umożliwiającym wykonie analizy zarówno dla zmiennych ilościowych jak i jakościowych. Moduł umożliwia automatyczne określenie optymalnej liczby składowych za pomocą sprawdzianu krzyżowego a także dynamiczne dodawanieusuwanie kolejnych składowych. Dostępny jest kompletny zestaw wyników przeprowadzonych analiz w tym wykres osypiska oraz biplot.

Porządkowanie liniowe

Porządkowanie liniowe – zadaniem metod porządkowania liniowego zbioru obiektów jest uszeregowanie, czyli ustalenie kolejności obiektów lub ich zbiorów według określonego kryterium. Moduł umożliwia określenie syntetycznej miary agregującej cechy obiektu, a następnie uporządkowanie na jej podstawie obiektów od „najlepszego” do „najgorszego”. Moduł oferuje szereg schematów i metryk obliczania syntetycznej miary porządkującej obiekty oraz sposobów prezentacji uzyskanych wyników.

Bootstrap

Bootstrap (z jęz. ang. sznurówka) jest zbiorczą nazwą metod pozwalających na bardzo dobre wyznaczenie (za pomocą przedziałów ufności) niepewności oszacowania rozmaitych wielkości statystycznych. Nieoceniona jest jego wartość dydaktyczna, gdyż przedziały ufności w tej metodzie powstają empirycznie, inaczej niż w podejściu klasycznym, nad którym ma on też przewagę poprzez wszechstronność – nie potrzeba tu założeń ani wiedzy dotyczącej rozkładu próby i statystyki testowej.


Praca z bootstrapem w programie Statistica jest naprawdę prosta. Wystarczy wskazać jedną lub dwie zmienne oznaczające próby i podać statystykę, dla której chcemy obliczyć przedziały ufności.

Po zatwierdzeniu dostajemy skoroszyt z zestawem wyników: arkuszem z wynikami liczbowymi oraz dwoma wykresami – estymatora jądrowego gęstości oraz rozkładu bootstrapowego z zaznaczonymi przedziałami ufności.


Nim zatwierdzimy obliczenia, możemy skorzystać z wielu opcji, które pojawią się po zaznaczeniu pola Pokaż więcej opcji. Można tu wskazać liczbę prób bootstrapowych (liczba losowanych podprób) i poziom ufności przedziału, wybrać rodzaj bootstrapu: nieparametryczny, półparametryczny, parametryczny oraz rodzinę rozkładów, jeśli wybierzemy bootstrap parametryczny. Dodatkowo możemy obliczyć przedziały ufności metodą bootstrap-t.

Regresja panelowa

Regresja panelowa jest metodą budowy modeli liniowych dla danych przekrojowo-czasowych, przydatną w ekonometrii, naukach społecznych lub epidemiologii. W takich danych, w odróżnieniu od regresji liniowej wielorakiej, znajdują się również dwa szczególne predyktory: czas i jednostka. Uwzględnienie możliwości oraz sposobu ich wpływu na zmienną zależną stanowi sedno regresji panelowej.

Miary nierówności

Miary nierówności służą do pomiaru zróżnicowania dochodów między dochodami uczestników danej gospodarki. Umożliwiają obiektywne porównanie pomiędzy różnymi populacjami, ale aby to osiągnąć, muszą mieć pewne właściwości, jak na przykład: przeniesienie jednego dolara z portfela osoby bogatszej do biedniejszej powinno prowadzić do obniżenia poziomu nierówności.

Pojedyncze miary są bardziej wrażliwe na niektóre czynniki, więc wybór jednej z nich wiąże się z kompromisami. Różnią się pod względem informacji, które przekazują, ale żadnej z nich nie można uznać za lepszą, ponieważ wszystkie są użyteczne w pewnych kontekstach. Dobrze wyważona analiza nierówności powinna uwzględniać kilka z tych miar.

W module są wykorzystywane miary: Ginniego, Atkinsona, Hoovera, Coultera, T Theila oraz L Theila. Im wskaźniki są bliższe 0, tym bardziej równa jest populacja. Obserwacje o ujemnych wartościach nie biorą udziału podczas obliczania tych miar.

Test Mosesa skrajnych reakcji

Nieparametryczny test porównujący dwie grupy: kontrolną i badaną, pod względem obserwacji odstających. Przyjęcie hipotezy alternatywnej oznacza, że w badanej grupie bardziej prawdopodobne jest przyjęcie wartości odstających. Jako statystykę test ten przyjmuje rozstęp między największą a najmniejszą wartością z grupy kontrolnej w złączonej populacji grupy kontrolnej i badanej. Wraz z wynikami testu otrzymujemy wykres ramka-wąsy. Graficznie reprezentuje on niektóre z cech rozkładu, które również mogą być pomocne przy ocenie ekstremalnych wartości w grupach.

Miary DFBETAS do oceny wpływu punktów odstających

Występowanie w zbiorze danych obserwacji znacząco odbiegających od pozostałych pod względem wartości charakteryzujących ich parametrów może mieć duży wpływ na uzyskiwane wyniki analiz i doprowadzić do wyciągnięcia błędnych wniosków. W wielu przypadkach może to skutkować dużymi stratami finansowymi lub wręcz spowodować zagrożenie dla życia lub zdrowia człowieka. Identyfikacja obserwacji odstających jest więc istotnym elementem wstępnej analizy danych i ich przygotowania do dalszych, bardziej zaawansowanych analiz.

Jedną z metod identyfikacji obserwacji odstających jest analiza wartości DFBETAS. Metoda ta pozwala na szybką i wiarygodną identyfikację obserwacji mających największy wpływ na wartości współczynników liniowych modeli regresyjnych budowanych na analizowanym zbiorze danych. Wyniki przedstawione w postaci graficznej zapewniają prostotę interpretacji i mogą stanowić cenny element raportów oraz publikacji naukowych.

 

Miary efektu dla tabel 2×2

jest dedykowanym modułem przeznaczonym do obliczania na podstawie tabeli 2×2 szeregu wskaźników powiązania lub efektu. Na przykład umożliwia on obliczenie efektu związanego z binarną zmienną zależną, spowodowanego manipulacją binarną zmienną niezależną. Moduł umożliwia zarówno obliczenie wskaźników na podstawie danych surowych, jak również ręczne wprowadzenie lub korektę wartości w tabeli.

Miary te mają szczególne znaczenie w diagnostycznej analizie związków przyczynowych na podstawie rozkładów w tabeli obrazującej relacje typu test-efekt.

Analiza koncentracji

Moduł ten pozwala obliczyć miary koncentracji dla pojedynczych cech. Koncentracja jest tutaj rozumiana jako nierównomierny podział ogólnej sumy wartości analizowanej zmiennej pomiędzy poszczególne przypadki należące do analizowanego zbioru. Bardzo często tego typu analizy wykonuje się przy badaniu dochodów, koncentracji produkcji, gęstości zaludnienia itp. Koncentracja może być mierzona za pomocą wskaźników Giniego bądź Herfindahla oraz przedstawiona za pomocą krzywej koncentracji Lorenza.

Standaryzowane miary efektu

Moduł umożliwia obliczenie miar pozwalających na zbadanie siły związku pomiędzy dwiema zmiennymi w analizowanej zbiorowości. W module zaimplementowano trzy miary efektu – d Cohena, g Hedgesa, Δ Glassa oraz miarę korelacji V Cramera.

CATANOVA

Moduł umożliwia wykonanie analizy zmiennych jakościowych analogicznej do analizy wariancji. Moduł oblicza między innymi wskaźniki Tau Goodmana-Kruskala oraz C.

KMO i test Bartletta

Moduł umożliwia obliczenie indeksu KMO (Kaiser-Meyer-Olkin) oraz wykonanie test sferyczności Bartletta. Obydwie miary ułatwiają ocenę stosowalności analizy czynnikowej.

Konfiguracyjna analiza częstości (CFA)

CFA (Configural Frequency Analysis) jest narzędziem służącym do wyszukiwania wzorców i schematów w tabelach wielodzielczych. Pozwala odpowiedzieć na pytanie, czy wśród zgromadzonych danych występują pewne schematy pojawiające się częściej (typ) bądź rzadziej (anty-typ) niż byśmy się tego spodziewali. Wykorzystywana jest na przykład w naukach społecznych (określanie typów, wzorców zachowań klientów/pacjentów), czy badaniach skuteczności nowych programów nauczania (badania na dwóch grupach, w jednej wykorzystywano nowe metody, w drugiej stare; badanie porównuje postępy w obu grupach).

Moduł CFA umożliwia:

  • budowę tabel liczności dla danych surowych (zawierających pojedyncze obserwacje),
  • obliczenie częstości brzegowych,
  • obliczenie wartości oczekiwanych,
  • przeprowadzenie wybranego testu sprawdzającego występowanie typów/anty-typów w tabeli liczności.

Dodatkowo moduł umożliwia badaczowi określenie zakresu wyników, jakie powinny trafić do raportu.

Wielowymiarowe testy normalności

Gdy mamy do czynienia z wielowymiarowymi danymi, opisanymi grupą zmiennych, często występuje potrzeba stwierdzenia czy pochodzą one z pewnego wielowymiarowego rozkładu normalnego. Możemy to zrobić właśnie tutaj – w skład wchodzą cztery testy statystyczne (Mardii skośności, Mardii smukłości, Henzego-Zirklera i Doornika-Hansena) oraz, pomocniczo, wykres kwantylowy odległości Mahalanobisa.

Wielowymiarowy rozkład normalny to własność silniejsza niż rozkład normalny dla każdej zmiennej z osobna, więc aby go zbadać nie wystarczy wielokrotnie przeprowadzić test normalności (jednowymiarowej), jak np. test Shapiro-Wilka, dla każdej współrzędnej.

Na normalność wskazuje w testach wartość p większa niż poziom istotności oraz na wykresie układanie się punktów wzdłuż prostej. Dodatkowo, jeśli dane są dwu- lub trójwymiarowe, to dopasowany dwu- lub trójwymiarowy rozkład normalny zostaje zobrazowany za pomocą wykresu rozrzutu.

Badanie rozkładu empirycznego

Moduł ten umożliwia wstępne zbadanie rozkładu wskazanej przez nas zmiennej ilościowej. To szczególnie liczy się gdy nic nie wiadomo o tym rozkładzie. Standardowo można do tego użyć histogramu, jednakże przedstawione narzędzie jest czulsze – oprócz słupków histogramu widnieje tu wykres gęstości rozkładu, szacowanej za pomocą estymatora jądrowego gęstości, oraz wykres dystrybuanty.

Wykres słupkowy (Kolorowe słupki)

Moduł umożliwia utworzenie wykresu słupkowego i zdefiniowanie dla każdego ze słupków odrębnego koloru. Moduł daje również możliwość zmiany szeregu parametrów wykresu zgodnie z oczekiwaniami użytkownika.

Wykres sekwencyjny

Moduł umożliwia utworzenie wykresu sekwencyjnego i zdefiniowanie dla każdego z grup odrębnego koloru. Moduł daje również możliwość zmiany szeregu parametrów wykresu zgodnie z oczekiwaniami użytkownika.

Wykres radarowy

Moduł umożliwia utworzenie wykresu radarowego dla wybranych zmiennych na podstawie średnich bądź median. Możliwe jest wskazanie zmiennej grupującej oraz edycja szeregu parametrów wykresu.

Wykres mozaikowy

Moduł umożliwia utworzenie wykresu mozaikowego dla wybranych zmiennych jakościowych bardzo pomocnego w wizualizacji tabel kontyngencji. Możliwa jest edycja szeregu parametrów wykresu.

Wykres kołowy (SPie plot)

Moduł umożliwia utworzenie wykresu SPie będący odmianą wykresu kołowego, pozwalającą uwzględnić różnice w analizowanych grupach, zarówno za pomocą kątów, jak i długości promieni tworzonych wycinków. Możliwa jest edycja szeregu parametrów wykresu.

Piramida populacyjna

Piramida populacyjna najczęściej wykorzystywana jest w celu prezentacji danych demograficznych. Na wspólnej, pionowej osi zaznaczone są przedziały wiekowe (najmłodsze grupy na dole), natomiast słupki prezentują liczebność osób w danym przedziale w podziale na płeć.

Wykres motylkowy

Wykres motylkowy, wykazujący podobieństwo do opisanego powyżej wykresu piramidowego, również obrazuje liczności/odsetki występowania różnych kategorii w obrębie dwóch grup. Można go utworzyć zarówno dla danych surowych jak i dla gotowych liczności.

Wykres diamentowy

Wykres diamentowy to narzędzie do obrazowania położenia wartości średniej wraz z jej przedziałem ufności dla wskazanej zmiennej ilościowej z podziałem na grupy, z założeniem normalności rozkładu tej zmiennej w każdej grupie. Lewy i prawy wierzchołek rombu ukazują granice wymienionego przedziału ufności natomiast jego pionowa oś symetrii przechodzi przez wartość średnią.

Wykres Likerta

Użytecznym narzędziem służącym do przedstawiania wyników ankiet, w których odpowiedzi wyrażane są za pomocą skali Likerta – o wartościach 1, 2, 3, 4, 5, jest wykres Likerta. Pokazuje on odsetki wystąpień poszczególnych odpowiedzi w obrębie rozmaitych kategorii, jak przedziałów wiekowych, zawodu lub jednostek administracyjnych.

Wykres piramidowy

Za pomocą tego modułu można utworzyć wykresy na kształt piramidy populacyjnej, które dokładniej rzecz biorąc, obrazują liczności występowania różnych kategorii, takich jak przedziały wiekowe, w obrębie dwóch grup, często oznaczających płeć.

Wykres wrażliwości

Wykres wrażliwości to szczególny rodzaj wykresu słupkowego, służący do ukazania hierarchii ważności predyktorów pod kątem siły wpływu zmiany ich wartości na wielkość zmiennej zależnej w ramach modelu regresji liniowej. Słupki odpowiadające danemu predyktorowi, są tym szersze im większy ma on wpływ na zmienną zależną przy wahaniach proporcjonalnych do jego własnej zmienności.

Wykres skrzypcowy

Wykres skrzypcowy to jedno z narzędzi do obrazowego badania rozkładu pojedynczej zmiennej ilościowej. Jest on połączeniem, będących dla siebie nawzajem lustrzanymi odbiciami, wykresów empirycznej gęstości prawdopodobieństwa oraz wykresu ramkowego, dodatkowo z możliwością ukazania rozrzutu danych surowych.

Wykres słonecznikowy

Jeśli nasze dane liczbowe są dwuwymiarowe, to naturalnym jest zastanawiać się jak się one rozkładają na płaszczyźnie. Gdy liczba obserwacji jest duża, to zwykły wykres rozrzutu, zazwyczaj służący do tego celu, przestaje być czytelny i wówczas przydatny staje się wykres słonecznikowy, utworzony poprzez podział płaszczyzny na różnokolorowe sześciokątne obszary. Te do których nie trafiają żadne obserwacje są białe natomiast cała reszta podlega zasadzie: im wyższa gęstość obserwacji tym cieplejsza barwa.

Zapisz do pliku Excel

Moduł umożliwia zapisanie wszystkich arkuszy i wykresów znajdujących się w skoroszycie Statistica do osobnych zakładek pliku MS Excel. Zapis do pliku nie wymaga instalacji programu MS Excel.

Zapisz pliki graficzne

Moduł umożliwia zapisanie wszystkich wykresów znajdujących się w skoroszycie Statistica do pliku osobnych plików graficznych w określonym formacie i rozdzielczości.

Formatuj arkusz

Moduł pozwala nadać wynikowym arkuszom Statistica pożądany przez użytkownika format – użytkownik określa sposób wyświetlania wartości komórek, typ i wielkość czcionki oraz inne parametry arkusza istotne podczas publikacji wyników.

Ogólne możliwości programu

Kreator testów statystycznych przeznaczony jest dla osób pragnących zweryfikować prawdziwość swojej hipotezy badawczej za pomocą testu statystycznego, mających jednocześnie trudności z wyborem testu, który byłby najbardziej odpowiedni w ich sytuacji. Kreator automatycznie sprawdza wszelkie założenia związane z danym typem problemu i w zależności od ich spełnienia proponuje poprawny test. Korzystając z tego narzędzia, badacz musi jedynie określić kwestie merytoryczne prowadzonej analizy, takie jak:

  • Jaką analizę chcemy przeprowadzić?
  • Czy badane próby są zależne/niezależne od siebie?
  • Ile grup analizujemy?
  • Na jakiej skali mierzone są badane zmienne?

Wynikiem działania programu jest skoroszyt zawierający wyniki poszczególnych testów (dotyczące założeń i głównego pytania) razem z interpretacją oraz wykresy i dodatkowe analizy generowane standardowo przy danym rodzaju badań.

W obecnej wersji Kreator testów statystycznych umożliwia wykonanie dwóch rodzajów analiz:

  • Testy dla pojedynczej zmiennej,
  • Badanie istotności różnic.

Wybranie jednego z nich spowoduje wyświetlenie schematu w postaci drzewa, dzięki któremu badacz w prosty, intuicyjny sposób może określić, jaki dokładnie typ analizy chce przeprowadzić.

Testy dla pojedynczej zmiennej

W celu przejścia do schematu dotyczącego analizy pojedynczej zmiennej wystarczy kliknąć w odpowiednie pole rodzaju analiz. Na ekranie pojawi się poniższy schemat.

Jak można zauważyć, w chwili obecnej program oferuje trzy typy testów dla pojedynczej zmiennej:

  • Normalność,
  • Losowość,
  • Obserwacje odstające.

W celu przeprowadzenia analizy wystarczy wybrać jeden z nich. Zostanie wtedy odblokowana możliwość wyboru zmiennych oraz wykonania analizy.

Badanie istotności różnic

Po wybraniu tego rodzaju analizy, podobnie jak w przypadku analizy dla jednej zmiennej, pojawi się schemat ułatwiający dokładne określenie właściwej ścieżki postępowania. Kreator będzie prowadził użytkownika krok po kroku, zadając mu kolejne pytania pozwalające doprecyzować rodzaj analizowanego problemu. Przykładowy schemat decyzyjny zamieszczono poniżej.

Po udzieleniu odpowiedzi na powyższe pytania, użytkownik musi jedynie wybrać zmienne i uruchomić analizę. Program sprawdzi założenia związane z daną klasą problemu, wybierze odpowiedni test i wygeneruje komplet wyników wraz z ich interpretacją.

Dodatkowe możliwości programu

Jak już wcześniej nadmieniono, program przeznaczony jest dla badaczy mających nieco mniejsze doświadczenie w analizie statystycznej. Parametry programu są zatem dostosowane do najbardziej typowych sytuacji. Bardziej doświadczeni analitycy mają jednakże możliwość określenia szeregu szczegółowych opcji dotyczących wyboru i konfiguracji testów. Ważnym atutem kreatora jest niewątpliwie możliwość zapisu raportu z analizy, zarówno w formacie Statistica, jak i MS Word. Poniżej zamieszczono fragment przykładowego raportu w formacie MS Word.