Wyznaczenie Złożoności wymiarowej

Wymiar zanurzenia (embedding dimension, m), całka korelacyjna (correlation integral Cr)

Zastosowanie definicji złożoności wymiarowej (R.3) do analizy sygnałów wymusza przyjęcie określonej definicji dla wartości M i r. W pierwszym etapie konieczne jest „zanurzenie” sygnału w przestrzeni o odpowiednio dużej liczbie wymiarów. Przykład zanurzenia zmiennej x z układu równań Lorenza w przestrzeni 3-wymiarowej przedstawia rys. 7. Zanurzanie wykonujemy więc w taki sposób, że kilka wartości sygnału oddalonych od siebie o określoną wartość odstępu L tworzy jeden punkt w kilkuwymiarowej przestrzeni. Liczbę wymiarów użytą przy „zanurzaniu” sygnału nazywamy wymiarem zanurzenia (Embedding Dimension, m). W następnym kroku badamy i porównujemy odległości pomiędzy takimi punktami. Zależność M(r) określana jest jako liczba par punktów, dla których odległość Euklidesowa między nimi jest mniejsza lub równa r.

Rozpatrzmy przykładowo serię danych składającą się ze 100 punktów x1x2x3,..., x100. Stosując wymiar zanurzenia = 4 oraz odstęp między kolejnymi wartościami serii tworzącymi współrzędne punktu (opóźnienie, Lag) = 2, możemy utworzyć 94 punkty w 4-wymiarowej przestrzeni fazowej. Współrzędne tych punktów to: (x1x3x5x7), (x2x4x6x8), (x3x5x7x9), ... , (x94x96x98x100). Na bazie = 94 punktów wyliczyć można N = n(– 1)/2 wzajemnych odległości między punktami. W rozpatrywanym przykładzie liczba ta wynosi = 94×93/2 = 4371.

W miarę, jak zwiększamy dopuszczalną odległość r pomiędzy takimi punktami, coraz więcej par punktów mieści się w zadanym ograniczeniu. W pewnym momencie wszystkie pary punktów już się w tym przedziale mieszczą. Przyrost liczby par punktów, których wzajemna odległość jest mniejsza od r, wzrasta początkowo wykładniczo. Wykładnik tej potęgi to właśnie poszukiwana złożoność wymiarowa. Jeśli zależność tę zilustrujemy na wykresie logarytmicznym log M vs log r, złożoność wymiarową odczytamy jako tangens kąta pochylenia otrzymanej krzywej. Wykres ten to tzw. całka korelacyjna (Correlation Integral, C(r) ). Wyliczenie pochodnej z tej funkcji pozwala zamienić problem poszukiwania prostego odcinka pochyłego na wykresie log C(r) vs log r na problem poszukiwania odcinka poziomego na wykresie pochodnej log C(r) vs log r.

Przyjrzyjmy się odpowiednim wykresom uzyskanym dla zmiennej x układu równań Lorenza zanurzonej w 6-wymiarowej przestrzeni przy odpowiednio dobranej wartości odstępu L.

Kolejne wykresy przedstawiają proces estymacji złożoności wymiarowej dc sygnału. Wykres (a) przedstawia histogram odległości Euklidesowych pomiędzy punktami zanurzonymi w 6-wymiarowej przestrzeni. Wykres (b) przedstawia sumę kumulatywną wykresu (a), współrzędna y określonego punktu krzywej opisuje więc liczbę par punktów N, których wzajemna odległość jest równa lub mniejsza od zadanej odległości między punktami r. W dalszej kolejności przedstawiamy tę zależność w układzie logarytmicznym (c). Uzyskujemy w ten sposób tzw. całkę korelacyjną C(r). Na wykresie tym widoczny jest odcinek o w przybliżeniu liniowej charakterystyce, który jest tzw. obszarem skalowania liniowego (linear scaling region) Tangens kąta nachylenia tego odcinka jest poszukiwanym przez nas estymatorem złożoności wymiarowej sygnału đc. Jeśli przedstawi się pochodną tej zależności (d), odcinek ten staje się odcinkiem poziomym a złożoność wymiarową można z tego wykresu odczytać jako wartość przecięcia się  prostej dopasowanej do tego odcinka z osią OY.

 

a,b

 

c,d

Ryc. 10a-d: (a) rozkład odległości Euklidesowych pomiędzy punktami zmiennej x sygnału Lorenza zanurzonego w 6-wymiarowej przestrzeni, oś OX w skali liniowej; (b) suma kumulatywna wykresu a; (c) wykres b w skali logarytmicznej – całka korelacyjna; (d) pochodna wykresu całki korelacyjnej;

Przykład ten ilustruje, że na estymację złożoności wymiarowej sygnału wpływa kilka czynników, które nie zawsze można jednoznacznie i precyzyjnie określić. Najważniejsze z nich to właściwe dobranie wymiaru zanurzenia sygnału m, właściwe dobranie odstępu L pomiędzy wartościami sygnału tworzącymi punkt w przestrzeni fazowej, wreszcie właściwe określenie obszaru skalowania liniowego będącego podstawą do wyznaczania złożoności wymiarowej.

Jeśli chodzi o dobór właściwego wymiaru zanurzenia, to jest to problem stosunkowo prosty. Jak wykazał Theiler  (Theiler, 1990), minimalna wartość wymiaru zanurzenia musi spełniać regułę mmin >  2dc+1 , gdzie dc to rzeczywisty, poszukiwany wymiar badanego sygnału. Zważywszy, że złożoność sygnału Lorenza wynosi 2,017, minimalna wartość wymiaru zanurzenia umożliwiająca prawidłową estymację jego złożoności wynosi:  mmin > 2 × 2,017 + 1;  mmin > 5,034;  mmin = 6.

Jeśli przystępujemy do badania złożoności wymiarowej sygnału, którego złożoność nie jest znana, musimy zbadać tę złożoność dla różnych, rosnących wartości wymiaru zanurzenia m. W przypadku sygnałów posiadających niskowymiarową strukturę chaotyczną, w miarę wzrostu m obserwuje się początkowo wzrost estymowanej dc, a następnie brak wzrostu po przekroczeniu granicy  mmin >  2dc+1 . Dalszy wzrost wymiaru zanurzenia nie powoduje już wzrostu estymowanej złożoności wymiarowej. Taki pomiar możemy uznać za prawidłowy. Można też od razu zastosować odpowiednio dużą wartość wymiaru zanurzenia m i uznać estymację dc za prawidłową, jeśli wynik będzie spełniał regułę d< (m-1) / 2. Trzeba jednak pamiętać, że zbyt duża wartość m może spowodować, że zatarcie struktury atraktora podobnie jak to ma miejsce na ryc. 6c lub 7ef. W przypadkach tych końcowe wartości odcinka sygnału tworzące jeden punkt w przestrzeni fazowej są zbyt odległe i powodują pojawienie się efektu motyla.

Szerokość okna (window width , W)

Parametry m oraz L decydują o szerokości okna badanego sygnału (Window Width, W). Zdefiniowana jest ona jako = (m – 1)L. Wartość tę można rozumieć jako długość odcinka sygnału tworzącego jeden punkt w przestrzeni fazowej. Ilustruje to ryc. 11 przedstawiająca fragment sygnału z zaznaczonymi trzema odcinkami tworzącymi pojedyncze punkty w przestrzeni fazowej. Przy tworzeniu tych punktów użyto odstępu = 3 oraz wymiaru zanurzenia = 5. Oznacza to, że 5 kolejnych wartości sygnału tworzy jeden 5-wymiarowy punkt w przestrzeni fazowej i że co trzecia wartość sygnału została użyta przy budowie tego punktu. Szerokość okna wynosi w tym przypadku = (5-1)×3 = 12 punktów sygnału.

Rys. 2.11. Interpretacja pojęcia szerokości okna W. Przy wymiarze zanurzenia m = 5 i odstępie między wartościami sygnału L = 3 szerokość okna wynosi W = 12, co oznacza, że jeden punkt w przestrzeni fazowej odzwierciedla odcinek o długości 12 wartości sygnału.

Dobranie właściwej wielkości parametru W jest bardzo ważne z punktu widzenia dokonania właściwej estymacji złożoności wymiarowej. Jeśli odległość ta będzie zbyt duża, końce odcinka tworzącego punkt będą nieskorelowane (efekt motyla, patrz rys. 6c oraz 7e,f), co spowoduje zatarcie struktury atraktora. Jeśli natomiast będzie ona zbyt mała, kolejne współrzędne poszczególnych punktów będą miały prawie takie same wartości, więc punkty te rozłożą się w pobliżu głównej przekątnej w przestrzeni fazowej (rys.7a,b). Tutaj również struktura atraktora będzie w dużej mierze niewidoczna.

W przypadku sygnałów wysokowymiarowych, które trzeba zanurzać w przestrzeni o bardzo dużej liczbie wymiarów, konieczne jest zastosowanie interpolacji sygnału funkcjami sklejanymi (cubic interpolation) w celu zanurzenia sygnału w rządanej liczbie wymiarów przy zachowaniu żądanej długości okna. Wprowadzenie tej modyfikacji oraz wykazanie, że spełnieniu okreslonych warunków, nie wpływa ona istotnie na dokonywany pomiar złożoności wymiarowej było jednym z kluczowych elementów umożliwiających rozpoczęcie pomiarów sygnałów wysokowymiarowych, co zostało przedstawione w moich publikacjach (Michalak, Chaos, 2014; Michalak, Physica E, 2011).

Obszar skalowania liniowego

Kolejna bardzo istotna kwestia związana z szacowaniem złożoności wymiarowej sygnału to problem poszukiwania obszaru skalowania liniowego na wykresie log C(r) vs log r lub log C(r)vs log r. Niejednokrotnie na wykresie tym nie ma jednoznacznego odcinka poziomego, który pozwoliłby dokładnie wyznaczyć złożoność wymiarową sygnału. Często w obrębie odcinka prostego występują tzw. lakunarności (lacunarity), czyli zagłębienia i wyniesienia, które związane są najczęściej z rozbudowaną fakturą atraktora. One również stanowią o trudności skonstruowania właściwego algorytmu obliczającego złożoność wymiarową. Podstawowe parametry w algorytmach obliczeniowych, które z reguły są dobierane w sposób intuicyjny i mogą być przyczyną rozbieżności w uzyskanych wynikach, to minimalna długość obszaru skalowania liniowego oraz dopuszczalne odstępstwo takiego odcinka od prostej, zarówno na jego końcach, jak i w jego środku.

Możliwe jest też uzyskanie wykresu całki korelacyjnej z większą liczbą obszarów skalowania liniowego, wtedy problemem jest określenie, który z nich jest właściwy. Wykres całki korelacyjnej posiadający dwa obszary plateau można wygenerować nakładając na siebie dwa sygnały chaotyczne o niskim wymiarze, przy czym muszą one mieć zbliżoną skalę czasową, natomiast ich skala amplitudowa powinna różnić się np. o ok. 1 rząd wielkości. Przykład takiej całki korelacyjnej jest zilustrowany rys.12. Przedstawiona jest na nim pochodna całki korelacyjnej sygnału skonstruowanego przez dodanie dwóch sygnałów Lorenza, przy czym jeden użyty został w skali naturalnej, drugi natomiast pomnożony został przez czynnik 0,15 i „zagęszczony” w czasie kilkakrotnie. Widać na tym wykresie dwa obszary plateau: jeden dla dużych odległości między punktami w przestrzeni fazowej i odpowiadający złożoności wymiarowej równej ok. 2 oraz drugi dla małych odległości między punktami w przestrzeni fazowej, odpowiadający złożoności ok. 4.

Rys.2.12. Przykład wykresu całki korelacyjnej z dwoma obszarami plateau.

W przypadku dużych odległości między punktami w przestrzeni fazowej mniejszy sygnał staje się niewidoczny i obserwowane plateau odzwierciedla złożoność wymiarową jedynie sygnału pierwszego o większej amplitudzie. Gdy odległości między punktami w przestrzeni fazowej są małe, wykrywane są oba sygnały. Nałożenie dwóch sygnałów o złożoności ok. 2 daje złożoność równą ok. 4.

Problem wyznaczania złożoności wymiarowej sygnałów będących sumą dwóch lub więcej wymiarów nie jest poruszany w dostępnej literaturze, a sygnał posturograficzny jest prawdopodobnie takim właśnie sygnałem. Można przyjąć założenie, że powstaje on przez nałożenie się na siebie odruchów posturalnych z poszczególnych pięter układu utrzymywania równowagi (kostki – kolana – biodra – lędźwie – szyja – głowa). W praktyce często obserwuje się brak jednoznacznego obszaru plateau lub kilka niewyraźnych obszarów. Wszystko to stanowi o trudności wyznaczania złożoności wymiarowej sygnału posturograficznego.

 W przypadku sygnału posturograficznego, będącego punktem moich zainteresowań, złożoność wymiarową można wyznaczać w stosunku do dwóch jego wymiarów: przednio-tylnego (anterio-posterior, AP) i poprzecznego (lateral, LAT). Jeśli by przyjąć założenie, że oba sygnały: AP i LAT, są wytwarzane przez ten sam układ regulacyjny, to złożoność wymiarowa obu powinna być jednakowa. Jeśli jednak przyjąć, że w układzie nerwowym człowieka istnieją dwa osobne układy regulacyjne dla obu kierunków, to złożoności wymiarowe obu sygnałów mogą być różne. W praktyce można przyjąć hipotezę roboczą o częściowym wzajemnym sprzężeniu dwóch niezależnych układów regulacyjnych, a niewiadomy jest jedynie stopień ich wzajemnego sprzężenia.

Istnieją różne algorytmy wyznaczające złożoność wymiarową sygnałów. Do najważniejszych należą algorytmy Grassbergera-Proccacia, Takensa-Ellnera oraz Smitha różniące się nieco podejściem do problemu. Algorytmy te dobrze zachowują się dla sygnałów niskowymiarowych, jednak zawodzą w przypadku sygnałów wysokowymiarowych. W  swojej rozprawie doktorskiej w 2005 roku dokonałem analizy zachowania się algorytmu Takensa Ellnera w stosunku do sygnałów posturograficznych. Wyniki okazały się być niejednoznaczne a ich interpretacja była trudna. Wskazywały one na potrzebę dokładnego przyjrzenia się zastosowanej metodyce i algorytmom oraz określenia przyczyn trudności interpretacyjnych. W szczególności, konieczne było dokonanie modyfikacji algorytmu tak by dopasować go do analizy sygnałów wysokowymiarowych.

Przez następne 20 lat po doktoracie dokonywałem w wolnych chwilach wielu różnych symulacji numerycznych celem sprawdzenia zachowania się różnych zmian w algorytmie w stosunku do wzorcowych sygnałów wysokowymiarowych o znanym wymiarze. Zaowocowało to publikacjami w wysokopunktowanych czasopismach naukowych zajmujących się rozwijaniem badań nad teorią chaosu. Szczegóły dokonanych zmian w algorytmie przedstiawoine są w zakłądce 'CHAOS WYSOKOWYMIAROWY'


Inne problemy przy wyznaczaniu złożoności wymiarowej i prognozowaniu nieliniowym

Jak już poprzednio pisałem, prawidłowe i dokładne wyznaczenie złożoności wymiarowej nie jest problemem prostym. Pewne parametry w różnych algorytmach „ustawiane” są przez badacza w sposób intuicyjny, często metodą prób i błędów. Stąd wynikają pewne trudności w interpretacji wyników uzyskanych przez różnych autorów. Jest to również przyczyną stosowania na różnych etapach obliczeń najróżniejszych metod i algorytmów, które w przekonaniu badaczy najbardziej nadają się do zastosowania przy rozwiązywaniu poszczególnych problemów. W poprzednio zasygnalizowana została rola szerokości okna i obszaru skalowania liniowego. Obecnie pragnę przybliżyć inne aspekty związane z wyznaczaniem złożoności wymiarowej.

Częstotliwość próbkowania sygnału

Jest rzeczą intuicyjnie zrozumiałą, że jeśli badany sygnał będzie w trakcie pomiaru próbkowany ze zbyt małą częstotliwością, pewne cechy sygnału mogą ulec zatarciu, co może spowodować błędne wyznaczenie parametrów chaotycznych sygnału. Kryterium Nyquista stanowi, że częstotliwość próbkowania powinna być co najmniej 2-krotnie wyższa od najwyższej obserwowanej częstotliwości w widmie badanego sygnału. Jeśli nie wiadomo przed eksperymentem, jaką częstotliwość należy zastosować przy rejestracji, najlepiej jest zastosować maksymalną dostępną. Po zarejestrowaniu sygnału w pamięci komputera częstotliwość próbkowania zawsze można poddać redukcji przed zastosowaniem dalszych obliczeń. Stosując wyższe częstotliwości, trzeba się jednak liczyć z większą zajętością pamięci komputera i dłuższym czasem obliczeń, co często nie jest bez znaczenia.

O tym, jaka musi być minimalna częstotliwość próbkowania sygnału decydują przede wszystkim własności widma sygnału w rozkładzie metodą Fouriera. Zastosowanie częstotliwości próbkowania f spowoduje, że częstotliwości składowe większe niż f/2 zostaną bezpowrotnie utracone. Częstotliwość próbkowania musi więc być wystarczająco duża, by urządzenie rejestrujące nie zachowywało się jednocześnie jak filtr dolnoprzepustowy zmieniający strukturę sygnału, a przez to również jego właściwości chaotyczne. Jedną z metod służącą do oszacowania naturalnej skali czasowej sygnału (Natural Time Scale), a więc i właściwej częstotliwości próbkowania, jest analiza funkcji autokorelacji sygnału. Na funkcji tej poszukuje czasu pojawienia się pierwszego minimum funkcji autokorelacji. Istnieją jednak w praktyce trudności związane z takim pomiarem. Gdy badane są dane zaszumione, pierwsze minimum może być minimum lokalnym, które da nierealistycznie małą wartość. Z drugiej strony minimum globalne może dać estymatę nierealnie długą. Z powodu tych problemów wielu badaczy do oszacowania skali czasowej sygnału używa czasu autokorelacji, tj. czasu, po którym wartość funkcji autokorelacji maleje e-krotnie. Funkcja ta jest uznawana jako względnie niewrażliwa na zaszumienie sygnału i jego długość. Mniej natomiast się sprawdza w przypadku sygnałów mających strukturę widma o charakterze tzw. szumu różowego, czyli -a. Czas autokorelacji dla tego rodzaju sygnału może osiągać wartości rzędu 10-30% czasu rejestracji sygnału i w praktyce osiąga często nierealnie duże wartości  (Theiler, 1991).

Sygnał posturograficzny posiada takie właściwości. Jedną z przyczyn trudności analizy sygnałów posturograficznych jest fakt, że posiadają one strukturę widmową szumu -a. Struktura taka wynika z nakładania się w sygnale posturograficnzym drobnych oscylacji zależnych od  działania neuromięsniowych odruchów posturalnych na powolny dryf środka nacisku na podłoże. Daje to w widmie duże amplitudy dla małych częstotliwości f<1Hz i małe amplitudy dla częstotliwości f>1Hz reprezentujących właściwe odruchy posturalne. Przy czym przedstawiona granica f=1Hz ma tu charakter mocno orientacyjny.

Dziś można już powiedzieć, że wyznaczana złożoność wymiarowa przy pomocy oryginalnego algorytmu Takensa -Ellnera mierzyła tak naprawdę złożoność powolnego dryfu środka nacisku ciała na podłoże (Center of Pressure, CoP), a nie funkcjonowanie właściwych odruchów posturalnych, które można analizować po dokonaniu odpowiedniego odfiltrowania powolnego dryfu środka nacisku ciała na podłoże. Określenie parametrów dla takiego odflitrowania jest jednak problemem bardzo złożonym. Pewne założenia dla takiej analizy przedstawione sa w zakładce 'Chaos w układach biologicznych i medycynie'.

Inną metodą, którą można wykorzystać do oszacowania skali czasowej sygnału jest funkcja informacji wzajemnej (mutual information function)  (Frazer, 1989). Dostarcza ona niezależnej miary dla skali czasowej i może być porównana z wartością uzyskaną za pomocą funkcji autokorelacji.

Dokładność pomiaru

Można tu mówić o dokładności przetworzenia analogowo-cyfrowego przez przetwornik pomiarowy, o dokładności w sensie poziomu szumu w stosunku do sygnału właściwego, o powtarzalności pomiaru w przypadku rejestrowania sygnału stałego, wreszcie o wpływie otoczenia na sygnał (sieć energetyczna przy pomiarze sygnałów elektrycznych, drgania akustyczne przy pomiarze sygnałów mechanicznych). Aby pomiar złożoności wymiarowej był dokładny, mierzony sygnał musi być znacznie większy niż wszystkie nakładające się nań zakłócenia.

Dokładność pomiaru sygnału jest w badaniu własności chaotycznych bardzo ważna. Zbyt duża niedokładność pomiaru może w znacznym stopniu zakłócić precyzję obliczeń, stwarza to problemy przy porównywaniu wyników uzyskanych przez różnych badaczy rejestrujących sygnały różnymi urządzeniami pomiarowymi.

Wpływ dokładności rejestracji sygnału widoczny jest na wykresie funkcji log C(r) vs log r w postaci efektu schodków (stair step effect) dla małych wartości r, co w przypadku algorytmu Grassbergera-Proccacia może być przyczyną niedokładności pomiaru złożoności wymiarowej. Wady tej pozbawiony jest oryginalny algorytm Takensa-Ellnera, który wyznacza dc, korzystając z części tego wykresu odpowiadającej większym wartościom r, gdzie efekt ten nie występuje. Z drugiej jednak strony, przyjęcie przedziału całki korelacyjnej odpowiadającej większym odległościom między punktami skutkuje `niezauważeniem` informacji zawartej w małych odległościach, czyli tej reprezentującej odruchy posturalne.

Przeprowadzone analizy (Michalak, 2014, Chaos) wykazały ponadto, że w miarę jak rośnie złożoność sygnału, jest ona reprezentowana przez coraz bliższy odcinek całki korelacyjnej, co wymusza dokonanie większej liczby pomiarów odległości między punktami i istotnie wydłuża czas obliczeń. (Więcej na ten temat w zakładce 'CHAOS WYSOKOWYMIAROWY'.). Przyjęty przez Takensa i Ellnera obszar całki korelacyjnej jest niewłaściwy dla sygnałów wysokowymiarowych. Odrzucenie zaproponowanego ad hoc przez ww. autorów  przedziału było kluczem i punktem startowym dalszych badań nad złożonością sygnałów wysokowymiarowych.

Drugi aspekt dokładności to precyzja samego pomiaru, czyli powtarzalność wyników przy pomiarze sygnału o stałej wielkości.

Trzeci aspekt to właściwe odfiltrowywanie szumów generowanych przez samo urządzenie, jak i otoczenie (np. sieć energetyczna), stosując jednak techniki filtrowania sygnału, trzeba uważać, by jednocześnie nie zakłócić samego mierzonego sygnału.

Czas pomiaru

Im bardziej złożony jest sygnał, czyli im wyższa jest jego złożoność wymiarowa, tym dłuższy powinien być czas rejestracji sygnału. Z punktu widzenia struktury badanego atraktora, czas rejestracji sygnału powinien być na tyle długi, by zarejestrować przynajmniej kilkanaście, a najlepiej kilkadziesiąt quasi-cykli atraktora, tak, aby każdy fragment atraktora reprezentowany był przynajmniej przez kilka jego przebiegów. Użycie zbyt krótkiego fragmentu sygnału skutkować będzie zmiennością otrzymywanych wyników w zależności od tego, jaki fragment zostanie wykorzystany do analizy.

Czas pomiaru sygnału w połączeniu z częstotliwością próbkowania wyznacza łączną liczbę punktów pomiarowych sygnału. Kwestie związane z częstotliwością zostały już omówione. Jeśli chodzi o czas rejestracji pomiaru, to oczywiście im jest on dłuższy, tym dokładniej będzie można wyznaczyć złożoność takiego sygnału. Smith sugerował na bazie rozważań teoretycznych  (Smith, 1988), że minimalna długość sygnału wymagana do właściwego wyznaczenia jego złożoności wymiarowej wzrasta wykładniczo wraz z wymiarem tego sygnału. Podobnie Swinney wyraził sugestię, że dla sygnałów o złożoności nie przekraczającej d= 5 liczba punktów sygnału 10d powinna wystarczyć do wyznaczenia złożoności sygnału z dokładnością rzędu 0,5%. Tak więc dla sygnałów o złożoności d< 3  1000 punktów jest liczbą wystarczającą. Jednak w przypadku sygnałów o złożoności przekraczającej d> 5 nawet 100 000 punktów może nie być wystarczające ze względu na wewnętrzne ograniczenia wynikające z procesu zanurzania sygnału w wielowymiarowej przestrzeni. Dokładna estymacja złożoności wymiarowej nie jest wtedy możliwa. (Dvorak & Klaschka, 1990).

W przypadku niektórych sygnałów zwiększenie czasu pomiaru niesie z sobą większe ryzyko zmiany stacjonarności sygnału (EEG). Zwiększanie czasu rejestracji pociąga za sobą wtedy wzrost wyznaczanego dc  (Pritchard & Duke, 1995). W przypadku EEG podobne zjawisko występuje również w sytuacji, gdy do analizy zostaje wybrany fragment wyglądający ‘wizualnie’ jak stacjonarny (np. fragment z falami alfa).

Aby wyznaczyć, jaki odcinek jest wystarczająco długi, by prawidłowo zmierzyć złożoność wymiarową, należy porównać wartości dc wyznaczone z odcinków serii o różnej długości, a następnie znaleźć długość, powyżej której uzyskane pomiary nie ulegają istotnym wahaniom.

Przystępując do obliczeń, należy mieć też na względzie czas wykonania obliczeń przez komputer. Złożoność obliczeń w przypadku algorytmu Grassbergera-Proccacia jest kwadratowa, tzn. czas obliczeń rośnie z drugą potęgą liczby punktów wziętych do analizy. Wzięcie 4 razy dłuższej serii wydłuża obliczenia 16-krotnie. W przypadku algorytmu Takensa-Ellnera złożoność algorytmu jest teoretycznie rzędu x·log(x), a w praktyce, dla serii o długościach nie przekraczających kilku tysięcy punktów – prawie liniowa.