Metody statystyczne. Podstawy probabilistycznych i statystycznych metod opisu niepewności. Ogólne metody logiczne badań naukowych

3.5.1. Metoda badań probabilistyczno-statystycznych.

W wielu przypadkach konieczne jest badanie nie tylko procesów deterministycznych, ale także losowych procesów probabilistycznych (statystycznych). Procesy te rozpatrywane są w oparciu o teorię prawdopodobieństwa.

Podstawowym materiałem matematycznym jest zbiór zmiennej losowej x. Przez zbiór rozumie się zbiór jednorodnych zdarzeń. Zbiór zawierający najróżniejsze warianty zjawiska masowego nazywany jest populacją ogólną lub duża próbka N. Zwykle badana jest tylko część populacji, tzw populacja wybieralna lub mała próba.

Prawdopodobieństwo P(x) wydarzenia X zwany stosunkiem liczby przypadków N(x), co prowadzi do zaistnienia zdarzenia X do całkowitej liczby możliwych przypadków N:

P(x)=N(x)/N.

Teoria prawdopodobieństwa bada teoretyczne rozkłady zmiennych losowych i ich charakterystykę.

Statystyka matematyczna zajmuje się sposobami przetwarzania i analizowania zdarzeń empirycznych.

Te dwie powiązane ze sobą nauki stanowią jedną matematyczną teorię masowych procesów losowych, szeroko stosowaną w analizie badań naukowych.

Metody rachunku prawdopodobieństwa i statystyki matematycznej są bardzo często stosowane w teorii niezawodności, przeżywalności i bezpieczeństwa, która jest szeroko stosowana w różnych gałęziach nauki i techniki.

3.5.2. Metoda modelowania statystycznego lub badania statystycznego (metoda Monte Carlo).

Metoda ta jest numeryczną metodą rozwiązywania złożonych problemów i opiera się na wykorzystaniu liczb losowych symulujących procesy probabilistyczne. Wyniki rozwiązania tej metody pozwalają na empiryczne ustalenie zależności badanych procesów.

Rozwiązywanie problemów metodą Monte Carlo jest skuteczne tylko przy wykorzystaniu szybkich komputerów. Aby rozwiązywać problemy metodą Monte Carlo trzeba mieć szereg statystyczny, znać prawo jego rozkładu, wartość średnią i oczekiwanie matematyczne t(x), odchylenie standardowe.

Metodą tą można uzyskać dowolnie określoną dokładność rozwiązania tj.

-> t(x)

3.5.3. Metoda analizy systemu.

Analiza systemowa rozumiana jest jako zbiór technik i metod badania złożonych systemów, które stanowią złożony zbiór oddziałujących ze sobą elementów. Współdziałanie elementów systemu charakteryzuje się połączeniami bezpośrednimi i sprzężonymi.

Istotą analizy systemu jest identyfikacja tych powiązań i ustalenie ich wpływu na zachowanie całego systemu jako całości. Najbardziej kompletną i dogłębną analizę systemów można przeprowadzić metodami cybernetyki, czyli nauki o złożonych systemach dynamicznych, zdolnych do postrzegania, przechowywania i przetwarzania informacji w celach optymalizacyjnych i kontrolnych.

Analiza systemu składa się z czterech etapów.

Pierwszym etapem jest sformułowanie problemu: określa się przedmiot, cele i zadania badania, a także kryteria badania obiektu i zarządzania nim.

W drugim etapie wyznaczane są granice badanego systemu oraz określana jest jego struktura. Wszystkie obiekty i procesy związane z celem są podzielone na dwie klasy - sam badany system i środowisko zewnętrzne. Wyróżnić Zamknięte I otwarty systemy. Badając systemy zamknięte, pomija się wpływ środowiska zewnętrznego na ich zachowanie. Następnie identyfikowane są poszczególne komponenty systemu – jego elementy i ustalana jest interakcja pomiędzy nimi a otoczeniem zewnętrznym.

Trzeci etap analizy systemu polega na stworzeniu modelu matematycznego badanego systemu. W pierwszej kolejności dokonuje się parametryzacji systemu, za pomocą określonych parametrów opisuje się główne elementy systemu i elementarne oddziaływania na niego. Jednocześnie wyróżnia się parametry charakteryzujące procesy ciągłe i dyskretne, deterministyczne i probabilistyczne. W zależności od charakterystyki procesów stosuje się jeden lub drugi aparat matematyczny.

W wyniku trzeciego etapu analizy systemu powstają kompletne modele matematyczne systemu, opisane językiem formalnym, np. algorytmicznym.

W czwartym etapie analizowany jest powstały model matematyczny, znajdowane są jego ekstremalne warunki w celu optymalizacji procesów i systemów sterowania oraz formułowania wniosków. Optymalizację ocenia się według kryterium optymalizacji, które w tym przypadku przyjmuje wartości ekstremalne (minimum, maksimum, minimax).

Zwykle wybiera się jedno kryterium, a dla innych ustawia się maksymalne dopuszczalne wartości progowe. Czasami stosuje się kryteria mieszane, które są funkcją parametrów podstawowych.

Na podstawie wybranego kryterium optymalizacji sporządzana jest zależność kryterium optymalizacji od parametrów modelu badanego obiektu (procesu).

Znane są różne matematyczne metody optymalizacji badanych modeli: metody programowania liniowego, nieliniowego lub dynamicznego; metody probabilistyczno-statystyczne oparte na teorii kolejkowania; teoria gier, która traktuje rozwój procesów jako sytuacje losowe.

Pytania do samokontroli wiedzy

Metodologia badań teoretycznych.

Główne sekcje teoretycznego etapu rozwoju badań naukowych.

Rodzaje modeli i rodzaje modelowania obiektu badawczego.

Analityczne metody badawcze.

Analityczne metody badań z wykorzystaniem eksperymentu.

Probabilistyczno-analityczna metoda badań.

Metody modelowania statycznego (metoda Monte Carlo).

Metoda analizy systemu.

Jak wykorzystuje się teorię prawdopodobieństwa i statystykę matematyczną? Dyscypliny te stanowią podstawę probabilistycznych i statystycznych metod podejmowania decyzji. Aby skorzystać z ich aparatu matematycznego, konieczne jest wyrażenie problemów decyzyjnych w kategoriach modeli probabilistyczno-statystycznych. Zastosowanie określonej probabilistyczno-statystycznej metody podejmowania decyzji składa się z trzech etapów:

Przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, tj. budowa probabilistycznego modelu układu sterowania, procesu technologicznego, procedury decyzyjnej, w szczególności w oparciu o wyniki kontroli statystycznej itp.

Przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;

Interpretacja wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcie właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), w szczególności, wnioski (o udziale wadliwych jednostek produktu w partii, o określonej postaci praw rozkładu kontrolowanych parametrów procesu technologicznego itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Rozważmy główne zagadnienia konstruowania probabilistycznych modeli podejmowania decyzji w sytuacjach ekonomicznych, zarządczych, technologicznych i innych. Do aktywnego i prawidłowego korzystania z dokumentów regulacyjnych, technicznych i instruktażowych dotyczących probabilistycznych i statystycznych metod podejmowania decyzji wymagana jest wstępna wiedza. Trzeba zatem wiedzieć, w jakich warunkach dany dokument powinien być używany, jakie informacje wstępne są niezbędne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Przykłady aplikacji teoria prawdopodobieństwa i statystyka matematyczna. Rozważmy kilka przykładów, w których modele probabilistyczno-statystyczne są dobrym narzędziem do rozwiązywania problemów związanych z zarządzaniem, produkcją, ekonomią i gospodarką narodową. I tak na przykład w powieści A.N. Tołstoja „Walking Through Torment” (t. 1) jest powiedziane: „warsztat produkuje dwadzieścia trzy procent odrzutów, trzymaj się tej liczby” – Strukow powiedział Iwanowi Iljiczowi.

Powstaje pytanie, jak rozumieć te słowa w rozmowie kierowników fabryk, skoro jedna jednostka produkcji nie może być wadliwa w 23%. Może być dobry lub wadliwy. Strukov prawdopodobnie miał na myśli, że partia wielkoseryjna zawiera około 23% wadliwych jednostek produkcyjnych. Powstaje zatem pytanie, co oznacza „w przybliżeniu”? Niech 30 na 100 sprawdzonych jednostek produkcyjnych okaże się wadliwych, albo na 1000 - 300, albo na 100 000 - 30 000 itd. Czy Strukowowi należy zarzucać kłamstwo?

Albo inny przykład. Moneta używana jako partia musi być „symetryczna”, tj. podczas rzucania średnio w połowie przypadków powinien pojawić się herb, a w połowie przypadków - hash (reszka, liczba). Ale co oznacza „średnio”? Jeśli przeprowadzisz wiele serii po 10 rzutów w każdej serii, często spotkasz serie, w których moneta wyląduje jako herb 4 razy. W przypadku monety symetrycznej stanie się to w 20,5% przebiegów. A jeśli po 100 000 rzutów wyjdzie 40 000 herbów, to czy monetę można uznać za symetryczną? Procedura decyzyjna opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Podany przykład może nie wydawać się wystarczająco poważny. Jednak tak nie jest. Losowanie ma szerokie zastosowanie w organizowaniu przemysłowych eksperymentów technicznych i ekonomicznych, np. przy przetwarzaniu wyników pomiarów wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwatorskiego, sposoby przygotowania łożysk przed pomiarem) , wpływ obciążeń łożysk podczas procesu pomiaru itp.).P.). Załóżmy, że konieczne jest porównanie jakości łożysk w zależności od wyników ich przechowywania w różnych olejach konserwujących, tj. w olejkach kompozycji A I W. Planując taki eksperyment pojawia się pytanie, które łożyska należy umieścić w oleju kompozycji A, a które - w kompozycji olejowej W, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność podjętej decyzji.

Odpowiedź na to pytanie można uzyskać w drodze losowania. Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Aby zdecydować, czy kontrolowana partia produktów spełnia ustalone wymagania, wybiera się z niej próbkę. Na podstawie wyników kontroli próbki wyciąga się wnioski dotyczące całej partii. W tym przypadku bardzo ważne jest, aby przy doborze próbki unikać subiektywizmu, tzn. konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo, że zostanie wybrana do próbki. W warunkach produkcyjnych dobór jednostek produktu do próbki zwykle nie odbywa się losowo, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.

Podobne problemy z zapewnieniem obiektywności porównania pojawiają się przy porównywaniu różnych schematów organizacji produkcji, wynagrodzeń, podczas przetargów i konkursów, selekcji kandydatów na wolne stanowiska itp. Wszędzie potrzebujemy remisu lub podobnych procedur. Wyjaśnijmy na przykładzie identyfikacji najsilniejszych i drugich najsilniejszych drużyn przy organizacji turnieju według systemu olimpijskiego (przegrany jest eliminowany). Niech silniejsza drużyna zawsze pokona słabszą. Wiadomo, że najsilniejszy zespół z pewnością zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału wtedy i tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeśli taki mecz będzie zaplanowany, druga najsilniejsza drużyna nie dostanie się do finału. Ten, kto planuje turniej, może albo „wybić” z turnieju drugą najsilniejszą drużynę przed terminem, stawiając ją przeciwko liderowi już na pierwszym spotkaniu, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi zespołami aż do samego końca. finał. Aby uniknąć subiektywizmu przeprowadza się losowanie. W przypadku turnieju, w którym bierze udział 8 drużyn, prawdopodobieństwo, że dwie najlepsze drużyny spotkają się w finale, wynosi 4/7. W związku z tym z prawdopodobieństwem 3/7 druga najsilniejsza drużyna opuści turniej wcześniej.

Wszelkie pomiary jednostek produktu (za pomocą suwmiarki, mikrometru, amperomierza itp.) zawierają błędy. Aby dowiedzieć się, czy występują błędy systematyczne, należy wykonać powtarzalne pomiary jednostki produktu, którego cechy są znane (na przykład próbka standardowa). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd losowy.

Powstaje zatem pytanie, jak z wyników pomiarów dowiedzieć się, czy występuje błąd systematyczny. Jeśli tylko zanotujemy, czy błąd uzyskany przy kolejnym pomiarze jest dodatni czy ujemny, to zadanie to można sprowadzić do poprzedniego. Rzeczywiście, porównajmy pomiar do rzucenia monetą, błąd dodatni do utraty herbu, błąd ujemny do siatki (błąd zerowy przy wystarczającej liczbie działek skali prawie nigdy nie występuje). Wówczas sprawdzenie braku błędu systematycznego jest równoznaczne ze sprawdzeniem symetrii monety.

Celem tych rozważań jest sprowadzenie problemu sprawdzenia braku błędu systematycznego do problemu sprawdzenia symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaku” w statystyce matematycznej.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych i podejmowanie działań korygujących je oraz zapobiegających uwalnianiu produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na tym, aby móc poprawnie zbudować probabilistyczno-statystyczne modele podejmowania decyzji, na podstawie których można odpowiedzieć na postawione powyżej pytania. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotez, że udział wadliwych jednostek produkcji jest równy pewnej liczbie R 0 , Na przykład, R 0 = 0,23 (pamiętajcie słowa Strukowa z powieści A.N. Tołstoja).

Zadania oceniające. W szeregu sytuacji zarządczych, produkcyjnych, gospodarczych i gospodarki narodowej pojawiają się problemy innego rodzaju - problemy oceny cech i parametrów rozkładów prawdopodobieństwa.

Spójrzmy na przykład. Niech partia N lampy elektryczne Z tej partii próbka N lampy elektryczne Pojawia się wiele naturalnych pytań. Jak określić średnią żywotność lamp elektrycznych na podstawie wyników badań przykładowych elementów i z jaką dokładnością można ocenić tę charakterystykę? Jak zmieni się dokładność, jeśli weźmiemy większą próbkę? W jakiej liczbie godzin T można zagwarantować, że co najmniej 90% lamp elektrycznych będzie działać T i więcej godzin?

Załóżmy to przy badaniu wielkości próby N okazało się, że lampy elektryczne są uszkodzone X lampy elektryczne Następnie pojawiają się następujące pytania. Jakie granice można określić dla liczby? D wadliwych żarówek w partii, pod kątem stopnia wadliwości D/ N i tak dalej.?

Lub też, analizując statystycznie dokładność i stabilność procesów technologicznych, należy ocenić takie wskaźniki jakości, jak średnia wartość kontrolowanego parametru i stopień jego rozproszenia w rozpatrywanym procesie. Zgodnie z teorią prawdopodobieństwa wskazane jest wykorzystywanie jej matematycznego oczekiwania jako średniej wartości zmiennej losowej, a rozproszenia, odchylenia standardowego lub współczynnika zmienności jako statystycznej charakterystyki rozrzutu. Nasuwa się pytanie: jak oszacować te charakterystyki statystyczne na podstawie przykładowych danych i z jaką dokładnością można to zrobić? Podobnych przykładów można podać wiele. Ważne było tutaj pokazanie, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą zostać wykorzystane w zarządzaniu produkcją przy podejmowaniu decyzji z zakresu statystycznego zarządzania jakością produktu.

Co to jest „statystyka matematyczna”? Przez statystykę matematyczną rozumie się „dział matematyki poświęcony matematycznym metodom gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych”. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego.” Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

Statystyka jednoczynnikowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;

Wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);

Statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;

Statystyka obiektów o charakterze nienumerycznym, w których wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Historycznie rzecz biorąc, jako pierwsze pojawiły się pewne obszary statystyki obiektów o charakterze nienumerycznym (w szczególności problemy szacowania proporcji defektów i testowania hipotez na jej temat) oraz statystyki jednowymiarowe. Aparat matematyczny jest dla nich prostszy, dlatego ich przykład jest zwykle używany do zademonstrowania podstawowych idei statystyki matematycznej.

Tylko te sposoby przetwarzania danych, tj. statystyka matematyczna opiera się na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentów, przebiegu choroby itp. Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Zgodność z probabilistycznym modelem rzeczywistości, tj. jej adekwatność potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

Nieprobabilistyczne metody przetwarzania danych mają charakter eksploracyjny, można je stosować jedynie we wstępnej analizie danych, gdyż nie pozwalają na ocenę trafności i wiarygodności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

Metody probabilistyczne i statystyczne znajdują zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów).

W określonych obszarach zastosowań stosuje się zarówno metody probabilistyczne, jak i statystyczne o zastosowaniu ogólnym i szczegółowym. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jej metod przeprowadza się analizę statystyczną dokładności i stabilności procesów technologicznych oraz statystyczną ocenę jakości. Metody szczegółowe obejmują metody statystycznej kontroli akceptacji jakości produktu, statystycznej regulacji procesów technologicznych, oceny i kontroli niezawodności itp.

Powszechnie stosowane są stosowane dyscypliny probabilistyczne i statystyczne, takie jak teoria niezawodności i teoria kolejkowania. Treść pierwszego z nich wynika jasno z nazwy, drugi dotyczy badania systemów takich jak centrala telefoniczna odbierająca połączenia w losowych momentach – wymagań abonentów wybierających numery w swoich aparatach telefonicznych. Czas obsługi tych wymagań, tj. czas trwania rozmów jest również modelowany za pomocą zmiennych losowych. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Khinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SRR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

Krótko o historii statystyki matematycznej. Statystyka matematyczna jako nauka zaczyna się od prac słynnego niemieckiego matematyka Carla Friedricha Gaussa (1777-1855), który w oparciu o teorię prawdopodobieństwa zbadał i uzasadnił stworzoną przez niego w 1795 roku metodę najmniejszych kwadratów ( w celu wyjaśnienia orbity małej planety Ceres). Jego imieniem często nazywa się jeden z najpopularniejszych rozkładów prawdopodobieństwa, normalny, a w teorii procesów losowych głównym przedmiotem badań są procesy Gaussa.

Pod koniec XIX wieku. - początek 20 wieku Największy wkład w statystykę matematyczną wnieśli badacze angielscy, przede wszystkim K. Pearson (1857-1936) i RA Fisher (1890-1962). W szczególności Pearson opracował test chi-kwadrat do testowania hipotez statystycznych, a Fisher opracował analizę wariancji, teorię projektu eksperymentu i metodę największej wiarygodności do szacowania parametrów.

W latach 30. XX w. Polak Jerzy Neumann (1894-1977) i Anglik E. Pearson opracowali ogólną teorię testowania hipotez statystycznych, a radzieccy matematycy Akademik A.N. Kołmogorow (1903–1987) i członek korespondent Akademii Nauk ZSRR N.V. Smirnow (1900–1966) położyli podwaliny pod statystykę nieparametryczną. W latach czterdziestych XX w. Rumun A. Wald (1902-1950) zbudował teorię sekwencyjnej analizy statystycznej.

Statystyka matematyczna rozwija się obecnie dynamicznie. Tym samym w ciągu ostatnich 40 lat można wyróżnić cztery zasadniczo nowe obszary badań:

Opracowywanie i wdrażanie matematycznych metod planowania eksperymentów;

Rozwój statystyki obiektów o charakterze nienumerycznym jako samodzielny kierunek stosowanej statystyki matematycznej;

Rozwój metod statystycznych odpornych na niewielkie odchylenia od stosowanego modelu probabilistycznego;

Powszechny rozwój prac nad tworzeniem pakietów oprogramowania komputerowego przeznaczonych do statystycznej analizy danych.

Metody probabilistyczno-statystyczne i optymalizacja. Idea optymalizacji przenika współczesną stosowaną statystykę matematyczną i inne metody statystyczne. Mianowicie metody planowania eksperymentów, statystyczna kontrola akceptacji, statystyczna regulacja procesów technologicznych itp. Z kolei sformułowania optymalizacyjne w teorii podejmowania decyzji, np. stosowana teoria optymalizacji jakości produktu i wymagań normowych, przewidują powszechne stosowanie probabilistycznych metod statystycznych, przede wszystkim stosowanej statystyki matematycznej.

W zarządzaniu produkcją, zwłaszcza przy optymalizacji jakości produktu i wymagań normowych, szczególnie istotne jest zastosowanie metod statystycznych na początkowym etapie cyklu życia produktu, tj. na etapie badań przygotowanie opracowań projektów eksperymentalnych (opracowanie obiecujących wymagań produktu, projekt wstępny, specyfikacje techniczne dotyczące opracowania projektu eksperymentalnego). Wynika to z ograniczonej ilości informacji dostępnych na początkowym etapie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość. Metody statystyczne należy stosować na wszystkich etapach rozwiązywania problemu optymalizacyjnego – przy skalowaniu zmiennych, opracowywaniu modeli matematycznych funkcjonowania produktów i systemów, przeprowadzaniu eksperymentów technicznych i ekonomicznych itp.

W zagadnieniach optymalizacji, w tym optymalizacji jakości produktu i wymagań normowych, wykorzystywane są wszystkie obszary statystyki. Mianowicie statystyka zmiennych losowych, wielowymiarowa analiza statystyczna, statystyka procesów losowych i szeregów czasowych, statystyka obiektów o charakterze nienumerycznym. Wskazane jest wybranie metody statystycznej do analizy konkretnych danych zgodnie z zaleceniami.

Wyślij swoją dobrą pracę do bazy wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy, będą Państwu bardzo wdzięczni.

Wysłany dnia http://www.allbest.ru/

Wysłany dnia http://www.allbest.ru/

Wstęp

1. Rozkład chi-kwadrat

Wniosek

Aplikacja

Wstęp

W jaki sposób podejścia, idee i wyniki teorii prawdopodobieństwa są wykorzystywane w naszym życiu? matematyczna teoria kwadratów

Podstawą jest probabilistyczny model rzeczywistego zjawiska lub procesu, tj. model matematyczny, w którym obiektywne zależności są wyrażone w kategoriach teorii prawdopodobieństwa. Prawdopodobieństwa służą przede wszystkim do opisania niepewności, które należy wziąć pod uwagę przy podejmowaniu decyzji. Odnosi się to zarówno do niepożądanych okazji (ryzyka), jak i atrakcyjnych („szczęśliwa szansa”). Czasami losowość jest celowo wprowadzana do sytuacji, np. podczas losowania, losowego wybierania jednostek do kontroli, przeprowadzania loterii lub przeprowadzania badań konsumenckich.

Teoria prawdopodobieństwa pozwala na wykorzystanie jednego prawdopodobieństwa do obliczenia innych, interesujących badacza.

Podstawą statystyki matematycznej jest probabilistyczny model zjawiska lub procesu. Stosowane są dwie równoległe serie pojęć - te związane z teorią (model probabilistyczny) i te związane z praktyką (próbkowanie wyników obserwacji). Na przykład prawdopodobieństwo teoretyczne odpowiada częstotliwości znalezionej w próbce. Oczekiwanie matematyczne (szereg teoretyczny) odpowiada średniej arytmetycznej próbki (szereg praktyczny). Z reguły charakterystyka próbki jest oceną charakterystyki teoretycznej. Jednocześnie wielkości związane z szeregami teoretycznymi „siedzą w głowach badaczy”, odnoszą się do świata idei (według starożytnego greckiego filozofa Platona) i nie są dostępne do bezpośredniego pomiaru. Badacze dysponują jedynie przykładowymi danymi, na podstawie których próbują ustalić właściwości interesującego ich teoretycznego modelu probabilistycznego.

Dlaczego potrzebujemy modelu probabilistycznego? Faktem jest, że tylko za jego pomocą właściwości ustalone na podstawie analizy konkretnej próbki można przenieść na inne próbki, a także na całą tzw. Populację ogólną. Terminu „populacja” używa się w odniesieniu do dużego, ale skończonego zbioru badanych jednostek. Na przykład o całości wszystkich mieszkańców Rosji lub o całości wszystkich konsumentów kawy rozpuszczalnej w Moskwie. Celem badań marketingowych lub socjologicznych jest przeniesienie wypowiedzi uzyskanych z próby kilkuset lub tysięcy osób na populacje kilkumilionowe. W kontroli jakości partia produktów pełni rolę populacji ogólnej.

Przeniesienie wniosków z próby na większą populację wymaga przyjęcia pewnych założeń dotyczących związku cech próby z cechami tej większej populacji. Założenia te opierają się na odpowiednim modelu probabilistycznym.

Oczywiście możliwe jest przetwarzanie przykładowych danych bez stosowania tego czy innego modelu probabilistycznego. Można na przykład obliczyć średnią arytmetyczną próbki, policzyć częstotliwość spełnienia określonych warunków itp. Wyniki obliczeń będą jednak odnosić się tylko do konkretnej próby, przenoszenie wniosków uzyskanych za ich pomocą na jakąkolwiek inną populację jest niewłaściwe. Czynność tę nazywa się czasami „analizą danych”. W porównaniu z metodami probabilistyczno-statystycznymi analiza danych ma ograniczoną wartość edukacyjną.

Istotą probabilistyczno-statystycznych metod podejmowania decyzji jest więc stosowanie modeli probabilistycznych, opartych na estymacji i testowaniu hipotez z wykorzystaniem charakterystyki próby.

1. Rozkład chi-kwadrat

Korzystając z rozkładu normalnego, zdefiniowano trzy rozkłady, które są obecnie często stosowane w przetwarzaniu danych statystycznych. Są to rozkłady Pearsona („chi-kwadrat”), Studenta i Fishera.

Skoncentrujemy się na rozkładzie („chi-kwadrat”). Rozkład ten został po raz pierwszy zbadany przez astronoma F. Helmerta w 1876 roku. W powiązaniu z teorią błędu Gaussa badał sumy kwadratów n niezależnych zmiennych losowych o rozkładzie normalnym. Później Karl Pearson nadał tej funkcji rozkładu nazwę „chi-kwadrat”. A teraz dystrybucja nosi jego imię.

Ze względu na ścisły związek z rozkładem normalnym rozkład h2 odgrywa ważną rolę w teorii prawdopodobieństwa i statystyce matematycznej. Rozkład h2 i wiele innych rozkładów określonych przez rozkład h2 (na przykład rozkład Studenta) opisują przykładowe rozkłady różnych funkcji na podstawie wyników obserwacji o rozkładzie normalnym i są wykorzystywane do konstruowania przedziałów ufności i testów statystycznych.

Rozkład Pearsona (chi - kwadrat) - rozkład zmiennej losowej, gdzie X1, X2,..., Xn są normalnymi niezależnymi zmiennymi losowymi, a oczekiwanie matematyczne każdej z nich wynosi zero, a odchylenie standardowe wynosi jeden.

Suma kwadratów

rozdzielane zgodnie z prawem („chi – kwadrat”).

W tym przypadku liczba terminów, tj. n nazywa się „liczbą stopni swobody” rozkładu chi-kwadrat. Wraz ze wzrostem liczby stopni swobody rozkład powoli zbliża się do normalnego.

Gęstość tego rozkładu

Zatem rozkład h2 zależy od jednego parametru n – liczby stopni swobody.

Funkcja rozkładu h2 ma postać:

jeśli h2?0. (2.7.)

Rysunek 1 przedstawia wykres funkcji gęstości prawdopodobieństwa i rozkładu h2 dla różnych stopni swobody.

Rysunek 1 Zależność gęstości prawdopodobieństwa q (x) w rozkładzie h2 (chi – kwadrat) dla różnych liczb stopni swobody

Momenty rozkładu chi-kwadrat:

Rozkład chi-kwadrat wykorzystywany jest do szacowania wariancji (za pomocą przedziału ufności), testowania hipotez zgodności, jednorodności, niezależności, przede wszystkim dla zmiennych jakościowych (skategoryzowanych), które przyjmują skończoną liczbę wartości, a także w wielu innych zadaniach analizy danych statystycznych .

2. „Chi-kwadrat” w problematyce statystycznej analizy danych

Statystyczne metody analizy danych znajdują zastosowanie w niemal wszystkich obszarach działalności człowieka. Stosuje się je zawsze, gdy zachodzi potrzeba uzyskania i uzasadnienia sądów o grupie (przedmiotach lub podmiotach) charakteryzującej się pewną wewnętrzną heterogenicznością.

Współczesny etap rozwoju metod statystycznych można liczyć od roku 1900, kiedy to Anglik K. Pearson założył czasopismo „Biometrika”. Pierwsza trzecia XX wieku. przekazywana pod znakiem statystyki parametrycznej. Metody badano w oparciu o analizę danych z rodzin parametrycznych rozkładów opisanych krzywymi rodziny Pearsona. Najbardziej popularny był rozkład normalny. Do sprawdzenia hipotez wykorzystano testy Pearsona, Studenta i Fishera. Zaproponowano metodę największej wiarygodności, analizę wariancji oraz sformułowano podstawowe idee planowania eksperymentu.

Rozkład chi-kwadrat jest jednym z najczęściej stosowanych w statystyce do testowania hipotez statystycznych. Na podstawie rozkładu chi-kwadrat konstruowany jest jeden z najpotężniejszych testów dobroci dopasowania - test chi-kwadrat Pearsona.

Kryterium zgodności jest kryterium testowania hipotezy o założonym prawie nieznanego rozkładu.

Test h2 („chi-kwadrat”) służy do testowania hipotezy o różnych rozkładach. To jest jego godność.

Wzór obliczeniowy kryterium jest równy

gdzie m i m” są odpowiednio częstotliwościami empirycznymi i teoretycznymi

dana dystrybucja;

n jest liczbą stopni swobody.

Aby to sprawdzić, należy porównać częstotliwości empiryczne (obserwowane) i teoretyczne (obliczone przy założeniu rozkładu normalnego).

Jeśli częstotliwości empiryczne całkowicie pokrywają się z częstotliwościami obliczonymi lub oczekiwanymi, S (E - T) = 0 i kryterium h2 również będzie równe zero. Jeśli S (E - T) nie jest równe zeru, będzie to wskazywać na rozbieżność między częstotliwościami obliczonymi a częstotliwościami empirycznymi szeregu. W takich przypadkach należy ocenić znaczenie kryterium h2, które teoretycznie może wahać się od zera do nieskończoności. Dokonuje się tego poprzez porównanie rzeczywistej wartości h2f z jej wartością krytyczną (h2st).Hipoteza zerowa, czyli założenie, że rozbieżność pomiędzy częstotliwościami empirycznymi a teoretycznymi lub oczekiwanymi jest przypadkowa, zostaje obalona, ​​jeśli h2f jest większe lub równe h2st dla przyjętego poziomu istotności (a) i liczby stopni swobody (n).

Rozkład prawdopodobnych wartości zmiennej losowej h2 jest ciągły i asymetryczny. Zależy ona od liczby stopni swobody (n) i wraz ze wzrostem liczby obserwacji zbliża się do rozkładu normalnego. Dlatego zastosowanie kryterium h2 do oceny rozkładów dyskretnych wiąże się z pewnymi błędami wpływającymi na jego wartość, zwłaszcza na małych próbach. Aby uzyskać dokładniejsze szacunki, próbka rozdzielona na szereg zmian musi mieć co najmniej 50 opcji. Prawidłowe zastosowanie kryterium h2 wymaga również, aby częstość wariantów w klasach skrajnych nie była mniejsza niż 5; jeśli jest ich mniej niż 5, wówczas łączy się je z częstotliwościami sąsiednich klas, tak aby łączna liczba była większa lub równa 5. W zależności od kombinacji częstotliwości liczba klas (N) maleje. Liczbę stopni swobody ustala się na podstawie drugiej liczby klas, biorąc pod uwagę liczbę ograniczeń swobody zmienności.

Ponieważ dokładność wyznaczenia kryterium h2 w dużej mierze zależy od dokładności obliczenia częstotliwości teoretycznych (T), w celu uzyskania różnicy pomiędzy częstotliwościami empirycznymi i obliczonymi należy zastosować niezaokrąglone częstotliwości teoretyczne.

Jako przykład weźmy badanie opublikowane na stronie internetowej poświęconej zastosowaniu metod statystycznych w humanistyce.

Test Chi-kwadrat umożliwia porównanie rozkładów częstotliwości niezależnie od tego, czy mają one rozkład normalny, czy nie.

Częstotliwość odnosi się do liczby wystąpień zdarzenia. Zwykle o częstotliwości występowania zdarzeń myśli się wtedy, gdy zmienne mierzy się na skali nazw, a ich inne cechy, poza częstotliwością, są niemożliwe lub problematyczne do wybrania. Innymi słowy, gdy zmienna ma cechy jakościowe. Ponadto wielu badaczy ma tendencję do przeliczania wyników testów na poziomy (wysoki, średni, niski) i tworzenia tabel rozkładów wyników, aby dowiedzieć się, ile osób znajduje się na tych poziomach. Aby udowodnić, że na jednym z poziomów (w jednej z kategorii) liczba osób jest rzeczywiście większa (mniejsza) stosuje się także współczynnik Chi-kwadrat.

Spójrzmy na najprostszy przykład.

Przeprowadzono test wśród młodszej młodzieży, aby określić poczucie własnej wartości. Wyniki testu przeliczono na trzy poziomy: wysoki, średni, niski. Częstotliwości zostały rozdzielone w następujący sposób:

Wysokie (B) 27 osób.

Średnia (C) 12 osób.

Niski (L) 11 osób

Jest oczywiste, że większość dzieci ma wysoką samoocenę, jednak należy to wykazać statystycznie. Aby to zrobić, używamy testu Chi-kwadrat.

Naszym zadaniem jest sprawdzenie, czy uzyskane dane empiryczne różnią się od teoretycznie równie prawdopodobnych. Aby to zrobić, musisz znaleźć częstotliwości teoretyczne. W naszym przypadku częstości teoretyczne są częstotliwościami równie prawdopodobnymi, które można znaleźć poprzez dodanie wszystkich częstotliwości i podzielenie przez liczbę kategorii.

W naszym przypadku:

(B + C + H)/3 = (27+12+11)/3 = 16,6

Wzór do obliczenia testu chi-kwadrat:

h2 = ?(E - T)I / T

Budujemy stół:

Empiryczny (MI)

Teoretyczny (T)

(E - T)I / T

Znajdź sumę ostatniej kolumny:

Teraz musisz znaleźć wartość krytyczną kryterium, korzystając z tabeli wartości krytycznych (tabela 1 w dodatku). Aby to zrobić, potrzebujemy liczby stopni swobody (n).

n = (R - 1) * (C - 1)

gdzie R to liczba wierszy tabeli, C to liczba kolumn.

W naszym przypadku jest tylko jedna kolumna (oznaczająca pierwotne częstości empiryczne) i trzy wiersze (kategorie), zatem wzór się zmienia – pomijamy kolumny.

n = (R - 1) = 3-1 = 2

Dla prawdopodobieństwa błędu p?0,05 i n = 2 wartością krytyczną jest h2 = 5,99.

Uzyskana wartość empiryczna jest większa od wartości krytycznej – różnice w częstotliwościach są znaczne (h2 = 9,64; p? 0,05).

Jak widać obliczenie kryterium jest bardzo proste i nie zajmuje dużo czasu. Praktyczna wartość testu chi-kwadrat jest ogromna. Metoda ta jest najbardziej wartościowa przy analizie odpowiedzi na pytania zawarte w kwestionariuszach.

Spójrzmy na bardziej złożony przykład.

Na przykład psycholog chce wiedzieć, czy prawdą jest, że nauczyciele są bardziej uprzedzeni wobec chłopców niż dziewcząt. Te. częściej chwali dziewczyny. W tym celu psycholog przeanalizowała charakterystykę uczniów pisaną przez nauczycieli pod kątem częstotliwości występowania trzech słów: „aktywny”, „pracowity”, „zdyscyplinowany” oraz policzono synonimy tych słów.

Do tabeli wprowadzono dane dotyczące częstotliwości występowania słów:

Do przetwarzania uzyskanych danych używamy testu chi-kwadrat.

W tym celu zbudujemy tabelę rozkładu częstotliwości empirycznych, tj. te częstotliwości, które obserwujemy:

Teoretycznie oczekujemy, że częstotliwości będą równomiernie rozłożone, tj. częstotliwość zostanie rozdzielona proporcjonalnie pomiędzy chłopców i dziewczęta. Zbudujmy tabelę częstości teoretycznych. Aby to zrobić, pomnóż sumę wiersza przez sumę kolumny i podziel wynikową liczbę przez całkowitą sumę (sumy).

Ostateczna tabela do obliczeń będzie wyglądać następująco:

Empiryczny (MI)

Teoretyczny (T)

(E - T)I / T

Chłopcy

"Aktywny"

"Staranny"

"Zdyscyplinowany"

"Aktywny"

"Staranny"

"Zdyscyplinowany"

Kwota: 4,21

h2 = ?(E - T)I / T

gdzie R jest liczbą wierszy w tabeli.

W naszym przypadku chi-kwadrat = 4,21; n = 2.

Korzystając z tabeli wartości krytycznych kryterium, znajdujemy: przy n = 2 i poziomie błędu 0,05 wartość krytyczna h2 = 5,99.

Otrzymana wartość jest mniejsza od wartości krytycznej, co oznacza przyjęcie hipotezy zerowej.

Wniosek: nauczyciele nie przywiązują wagi do płci dziecka, pisząc dla niego cechy.

Wniosek

Studenci niemal wszystkich specjalności studiują sekcję „Teoria prawdopodobieństwa i statystyka matematyczna” na zakończenie kursu matematyki wyższej, w rzeczywistości zapoznają się jedynie z niektórymi podstawowymi pojęciami i wynikami, które wyraźnie nie wystarczą do praktycznej pracy. Studenci zapoznają się z niektórymi matematycznymi metodami badań na kursach specjalnych (na przykład „Prognozowanie i planowanie techniczno-ekonomiczne”, „Analiza techniczno-ekonomiczna”, „Kontrola jakości produktu”, „Marketing”, „Controlling”, „Matematyczne metody prognozowania ”)”, „Statystyka” itp. – w przypadku studentów kierunków ekonomicznych), jednak prezentacja w większości przypadków ma charakter bardzo skrótowy i schematyczny. W efekcie wiedza specjalistów statystyki stosowanej jest niewystarczająca.

Dlatego też duże znaczenie ma kierunek „Statystyka stosowana” na uczelniach technicznych, a na uczelniach ekonomicznych kierunek „Ekonometria”, gdyż ekonometria to, jak wiadomo, analiza statystyczna określonych danych ekonomicznych.

Teoria prawdopodobieństwa i statystyka matematyczna dostarczają podstawowej wiedzy z zakresu statystyki stosowanej i ekonometrii.

Są niezbędne specjalistom do pracy praktycznej.

Przyjrzałem się ciągłemu modelowi probabilistycznemu i próbowałem pokazać jego zastosowanie na przykładach.

I pod koniec swojej pracy doszedłem do wniosku, że kompetentna realizacja podstawowych procedur matematyczno-statycznej analizy danych i statycznego testowania hipotez jest niemożliwa bez znajomości modelu chi-kwadrat i umiejętności jego wykorzystania tabela.

Bibliografia

1. Orłow A.I. Statystyka stosowana. M.: Wydawnictwo „Egzamin”, 2004.

2. Gmurman V.E. Teoria prawdopodobieństwa i statystyka matematyczna. M.: Szkoła wyższa, 1999. - 479 s.

3. Ayvozyan S.A. Teoria prawdopodobieństwa i statystyka stosowana, tom 1. M.: Jedność, 2001. - 656 s.

4. Khamitov G.P., Vedernikova T.I. Prawdopodobieństwa i statystyka. Irkuck: BGUEP, 2006 - 272 s.

5. Ezhova L.N. Ekonometria. Irkuck: BGUEP, 2002. - 314 s.

6. Mosteller F. Pięćdziesiąt zabawnych problemów probabilistycznych z rozwiązaniami. M.: Nauka, 1975. - 111 s.

7. Mosteller F. Prawdopodobieństwo. M.: Mir, 1969. - 428 s.

8. Yaglom A.M. Prawdopodobieństwo i informacja. M.: Nauka, 1973. - 511 s.

9. Chistyakov V.P. Kurs teorii prawdopodobieństwa. M.: Nauka, 1982. - 256 s.

10. Kremer N.Sh. Teoria prawdopodobieństwa i statystyka matematyczna. M.: JEDNOŚĆ, 2000. - 543 s.

11. Encyklopedia matematyczna, tom 1. M .: Encyklopedia radziecka, 1976. - 655 s.

12. http://psystat.at.ua/ - Statystyka w psychologii i pedagogice. Artykuł Test chi-kwadrat.

Aplikacja

Krytyczne punkty dystrybucji h2

Tabela 1

Opublikowano na Allbest.ru

...

Podobne dokumenty

    Model probabilistyczny i aksjomatyka A.N. Kołmogorow. Zmienne i wektory losowe, klasyczne zadanie graniczne teorii prawdopodobieństwa. Podstawowe przetwarzanie danych statystycznych. Oszacowania punktowe charakterystyk numerycznych. Statystyczne sprawdzanie hipotez.

    podręcznik szkoleniowy, dodano 03.02.2010

    Zasady wykonywania i zaliczania testów dla działu korespondencji. Zadania i przykłady rozwiązywania problemów ze statystyki matematycznej i teorii prawdopodobieństwa. Tablice danych referencyjnych rozkładów, gęstość standardowego rozkładu normalnego.

    podręcznik szkoleniowy, dodano 29.11.2009

    Podstawowe metody sformalizowanego opisu i analizy zjawisk losowych, przetwarzania i analizy wyników eksperymentów fizycznych i numerycznych w teorii prawdopodobieństwa. Podstawowe pojęcia i aksjomaty teorii prawdopodobieństwa. Podstawowe pojęcia statystyki matematycznej.

    przebieg wykładów, dodano 08.04.2011

    Wyznaczanie prawa rozkładu prawdopodobieństwa wyników pomiarów w statystyce matematycznej. Sprawdzenie zgodności rozkładu empirycznego z teoretycznym. Wyznaczenie przedziału ufności, w którym mieści się wartość mierzonej wielkości.

    praca na kursie, dodano 11.02.2012

    Zbieżność ciągów zmiennych losowych i rozkładów prawdopodobieństwa. Metoda funkcji charakterystycznych. Testowanie hipotez statystycznych i wykonywanie centralnego twierdzenia granicznego dla zadanych ciągów niezależnych zmiennych losowych.

    praca na kursie, dodano 13.11.2012

    Główne etapy przetwarzania danych z obserwacji przyrodniczych metodą statystyki matematycznej. Ocena uzyskanych wyników, ich wykorzystanie w podejmowaniu decyzji zarządczych z zakresu ochrony przyrody i zarządzania środowiskiem. Testowanie hipotez statystycznych.

    praca praktyczna, dodano 24.05.2013

    Istota prawa dystrybucji i jego praktyczne zastosowanie do rozwiązywania problemów statystycznych. Wyznaczanie wariancji zmiennej losowej, oczekiwanie matematyczne i odchylenie standardowe. Cechy jednokierunkowej analizy wariancji.

    test, dodano 12.07.2013

    Prawdopodobieństwo i jego ogólna definicja. Twierdzenia o dodawaniu i mnożeniu o prawdopodobieństwie. Dyskretne zmienne losowe i ich charakterystyki numeryczne. Prawo wielkich liczb. Rozkład statystyczny próby. Elementy analizy korelacji i regresji.

    przebieg wykładów, dodano 13.06.2015

    Program zajęć, podstawowe pojęcia i wzory teorii prawdopodobieństwa, ich uzasadnienie i znaczenie. Miejsce i rola statystyki matematycznej w dyscyplinie. Przykłady i wyjaśnienia dotyczące rozwiązywania najczęstszych problemów na różne tematy w tych dyscyplinach akademickich.

    podręcznik szkoleniowy, dodano 15.01.2010

    Teoria prawdopodobieństwa i statystyka matematyczna to nauki o metodach ilościowej analizy masowych zjawisk losowych. Zbiór wartości zmiennej losowej nazywany jest próbką, a elementy zestawu nazywane są przykładowymi wartościami zmiennej losowej.

Zgodnie z trzema głównymi możliwościami – podejmowaniem decyzji w warunkach całkowitej pewności, ryzyka i niepewności – metody i algorytmy podejmowania decyzji można podzielić na trzy główne typy: analityczne, statystyczne i oparte na formalizacji rozmytej. W każdym konkretnym przypadku metoda podejmowania decyzji jest wybierana na podstawie stojącego przed nią zadania, dostępnych danych źródłowych, dostępnych modeli problemów, środowiska decyzyjnego, procesu decyzyjnego, wymaganej trafności decyzji i osobistych preferencji analityka.

W niektórych systemach informatycznych proces wyboru algorytmu można zautomatyzować:

Odpowiedni zautomatyzowany system ma możliwość wykorzystania wielu różnych typów algorytmów (biblioteka algorytmów);

System interaktywnie prosi użytkownika o udzielenie odpowiedzi na szereg pytań dotyczących głównych cech rozpatrywanego zadania;

Na podstawie wyników odpowiedzi użytkownika system proponuje najodpowiedniejszy (zgodnie z określonymi w nim kryteriami) algorytm z biblioteki.

2.3.1 Probabilistyczne i statystyczne metody podejmowania decyzji

Probabilistyczno-statystyczne metody podejmowania decyzji (PSD) stosuje się w przypadku, gdy skuteczność podejmowanych decyzji zależy od czynników będących zmiennymi losowymi, dla których znane są prawa rozkładu prawdopodobieństwa i inne cechy statystyczne. Co więcej, każda decyzja może prowadzić do jednego z wielu możliwych wyników, a każdy wynik ma określone prawdopodobieństwo wystąpienia, które można obliczyć. Wskaźniki charakteryzujące sytuację problemową opisywane są także za pomocą charakterystyk probabilistycznych.Przy takim ZPR decydent zawsze naraża się na ryzyko otrzymania wyniku innego niż ten, na który się nastawia przy wyborze optymalnego rozwiązania w oparciu o uśrednione charakterystyki statystyczne czynników losowych oznacza to, że decyzja jest podejmowana w warunkach ryzyka.

W praktyce często stosuje się metody probabilistyczne i statystyczne, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów). Jednak w każdej konkretnej sytuacji należy najpierw ocenić zasadniczą możliwość uzyskania wystarczająco wiarygodnych danych probabilistycznych i statystycznych.

Przy podejmowaniu decyzji wykorzystujących idee i wyniki teorii prawdopodobieństwa oraz statystyki matematycznej podstawą jest model matematyczny, w którym obiektywne zależności wyrażane są w kategoriach teorii prawdopodobieństwa. Prawdopodobieństwa służą przede wszystkim do opisania losowości, którą należy wziąć pod uwagę przy podejmowaniu decyzji. Odnosi się to zarówno do niepożądanych okazji (ryzyka), jak i atrakcyjnych („szczęśliwa szansa”).

Istotą probabilistyczno-statystycznych metod podejmowania decyzji jest wykorzystanie modeli probabilistycznych opartych na estymacji i testowaniu hipotez z wykorzystaniem charakterystyk próby.

Podkreślamy, że logika wykorzystania charakterystyk próbki do podejmowania decyzji w oparciu o modele teoretyczne polega na jednoczesnym użyciu dwóch równoległych serii pojęć– związane z teorią (model probabilistyczny) i związane z praktyką (próbkowanie wyników obserwacji). Na przykład prawdopodobieństwo teoretyczne odpowiada częstotliwości znalezionej w próbce. Oczekiwanie matematyczne (szereg teoretyczny) odpowiada średniej arytmetycznej próbki (szereg praktyczny). Zazwyczaj charakterystyka próbki jest oceną charakterystyki teoretycznej.

Zaletami stosowania tych metod jest możliwość uwzględnienia różnych scenariuszy rozwoju zdarzeń i ich prawdopodobieństw. Wadą tych metod jest to, że wartości prawdopodobieństwa dla scenariuszy stosowanych w obliczeniach są zwykle bardzo trudne do uzyskania w praktyce.

Zastosowanie określonej probabilistyczno-statystycznej metody podejmowania decyzji składa się z trzech etapów:

Przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, tj. budowa probabilistycznego modelu układu sterowania, procesu technologicznego, procedury decyzyjnej, w szczególności w oparciu o wyniki kontroli statystycznej itp.

Przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego;

Interpretacja wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcie właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z ustalonymi wymaganiami, konieczności dostosowania procesu technologicznego itp.), w szczególności, wnioski (o udziale wadliwych jednostek produktu w partii, o określonej postaci praw rozkładu kontrolowanych parametrów procesu technologicznego itp.).

Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Adekwatność modelu probabilistycznego potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

W zależności od rodzaju rozwiązywanego problemu statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, szacowanie i testowanie hipotez. Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

Statystyka jednoczynnikowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;

Wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);

Statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;

Statystyka obiektów o charakterze nienumerycznym, w których wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Przykład, kiedy wskazane jest zastosowanie modeli probabilistyczno-statystycznych.

Kontrolując jakość dowolnego produktu, pobiera się z niego próbkę, aby zdecydować, czy wytwarzana partia produktów spełnia ustalone wymagania. Na podstawie wyników kontroli próbki wyciąga się wnioski dotyczące całej partii. W tym przypadku bardzo ważne jest, aby przy doborze próbki unikać subiektywizmu, tzn. konieczne jest, aby każda jednostka produktu w kontrolowanej partii miała takie samo prawdopodobieństwo, że zostanie wybrana do próbki. Dobór losowy w takiej sytuacji nie jest wystarczająco obiektywny. Dlatego w warunkach produkcyjnych dobór jednostek produktu do próbki zwykle nie odbywa się losowo, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych i podejmowanie działań korygujących je oraz zapobiegających uwalnianiu produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na tym, aby móc poprawnie zbudować probabilistyczno-statystyczne modele podejmowania decyzji, na podstawie których można odpowiedzieć na postawione powyżej pytania. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez3.

Ponadto w szeregu sytuacji zarządczych, produkcyjnych, gospodarczych i gospodarki narodowej pojawiają się problemy innego rodzaju - problemy oceny cech i parametrów rozkładów prawdopodobieństwa.

Lub też, analizując statystycznie dokładność i stabilność procesów technologicznych, należy ocenić takie wskaźniki jakości, jak średnia wartość kontrolowanego parametru i stopień jego rozproszenia w rozpatrywanym procesie. Zgodnie z teorią prawdopodobieństwa wskazane jest wykorzystywanie jej matematycznego oczekiwania jako średniej wartości zmiennej losowej, a rozproszenia, odchylenia standardowego lub współczynnika zmienności jako statystycznej charakterystyki rozrzutu. Nasuwa się pytanie: jak oszacować te charakterystyki statystyczne na podstawie przykładowych danych i z jaką dokładnością można to zrobić? W literaturze można znaleźć wiele podobnych przykładów. Wszystkie pokazują, w jaki sposób teoria prawdopodobieństwa i statystyka matematyczna mogą zostać wykorzystane w zarządzaniu produkcją przy podejmowaniu decyzji z zakresu statystycznego zarządzania jakością produktu.

W określonych obszarach zastosowań stosuje się zarówno metody probabilistyczne, jak i statystyczne o zastosowaniu ogólnym i szczegółowym. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jej metod przeprowadza się analizę statystyczną dokładności i stabilności procesów technologicznych oraz statystyczną ocenę jakości. Metody szczegółowe obejmują metody statystycznej kontroli akceptacji jakości produktu, statystycznej regulacji procesów technologicznych, oceny i kontroli niezawodności itp.

W zarządzaniu produkcją, zwłaszcza przy optymalizacji jakości produktu i zapewnieniu zgodności z wymaganiami norm, szczególnie istotne jest stosowanie metod statystycznych na początkowym etapie cyklu życia produktu, tj. na etapie badań przygotowanie opracowań projektów eksperymentalnych (opracowanie obiecujących wymagań produktu, projekt wstępny, specyfikacje techniczne dotyczące opracowania projektu eksperymentalnego). Wynika to z ograniczonej ilości informacji dostępnych na początkowym etapie cyklu życia produktu oraz konieczności przewidywania możliwości technicznych i sytuacji ekonomicznej na przyszłość.

Najpopularniejszymi probabilistycznymi metodami statystycznymi są analiza regresji, analiza czynnikowa, analiza wariancji, statystyczne metody oceny ryzyka, metoda scenariuszowa itp. Coraz większego znaczenia nabiera obszar metod statystycznych poświęcony analizie danych statystycznych o charakterze nienumerycznym. wyniki pomiarów w oparciu o cechy jakościowe i różnego rodzaju. Jednym z głównych zastosowań statystyki obiektów o charakterze nienumerycznym jest teoria i praktyka ocen eksperckich związana z teorią decyzji statystycznych i problemami głosowania.

Rolą człowieka przy rozwiązywaniu problemów metodami teorii rozwiązań statystycznych jest sformułowanie problemu, czyli sprowadzenie problemu rzeczywistego do odpowiedniego standardowego, określenie prawdopodobieństw zdarzeń na podstawie danych statystycznych, a także zatwierdzić otrzymane optymalne rozwiązanie.

Szczególnie interesująca jest ilościowa ocena ryzyka biznesowego z wykorzystaniem metod statystyki matematycznej. Główne narzędzia tej metody oceny to:

§ prawdopodobieństwo wystąpienia zmiennej losowej,

§ oczekiwanie matematyczne lub średnia wartość badanej zmiennej losowej,

§ dyspersja,

§ odchylenie standardowe (średniokwadratowe),

§ współczynnik zmienności,

§ rozkład prawdopodobieństwa badanej zmiennej losowej.

Aby podjąć decyzję, musisz znać wielkość (stopień) ryzyka, które mierzy się dwoma kryteriami:

1) średnia wartość oczekiwana (oczekiwanie matematyczne),

2) wahania (zmienność) możliwego wyniku.

Średnia oczekiwana wartość jest to średnia ważona zmiennej losowej, która jest powiązana z niepewnością sytuacji:

,

gdzie jest wartością zmiennej losowej.

Średnia wartość oczekiwana mierzy wynik, jakiego średnio oczekujemy.

Wartość średnia jest uogólnioną cechą jakościową i nie pozwala na podjęcie decyzji na korzyść jakiejkolwiek konkretnej wartości zmiennej losowej.

Aby podjąć decyzję, należy zmierzyć wahania wskaźników, czyli określić miarę zmienności możliwego wyniku.

Odchylenie w możliwym wyniku to stopień, w jakim wartość oczekiwana odbiega od wartości średniej.

W tym celu w praktyce stosuje się zwykle dwa ściśle ze sobą powiązane kryteria: „rozproszenie” i „odchylenie standardowe”.

Dyspersja – średnia ważona kwadratów wyników rzeczywistych ze średniej oczekiwanej:

Odchylenie standardowe jest pierwiastkiem kwadratowym wariancji. Jest to wielkość wymiarowa, mierzona w tych samych jednostkach, w jakich mierzy się badaną zmienną losową:

.

Wariancja i odchylenie standardowe stanowią miarę bezwzględnej zmienności. Do analizy zwykle wykorzystuje się współczynnik zmienności.

Współczynnik zmienności reprezentuje stosunek odchylenia standardowego do średniej wartości oczekiwanej, pomnożony przez 100%

Lub .

Na współczynnik zmienności nie mają wpływu wartości bezwzględne badanego wskaźnika.

Korzystając ze współczynnika zmienności, można nawet porównać wahania cech wyrażonych w różnych jednostkach miary. Współczynnik zmienności może wynosić od 0 do 100%. Im wyższy współczynnik, tym większe wahania.


W statystykach gospodarczych ustala się następującą ocenę różnych wartości współczynnika zmienności:

do 10% – wahania słabe, 10 – 25% – umiarkowane, powyżej 25% – wysokie.

W związku z tym im wyższe wahania, tym większe ryzyko.

Przykład. Właściciel małego sklepu na początku każdego dnia kupuje na sprzedaż jakiś łatwo psujący się produkt. Jednostka tego produktu kosztuje 200 UAH. Cena sprzedaży – 300 UAH. dla jednostki. Z obserwacji wiadomo, że zapotrzebowanie na ten produkt w ciągu dnia może wynosić 4, 5, 6 lub 7 jednostek z odpowiadającym im prawdopodobieństwem 0,1; 0,3; 0,5; 0,1. Jeśli produkt nie zostanie sprzedany w ciągu dnia, to na koniec dnia zawsze zostanie kupiony po cenie 150 UAH. dla jednostki. Ile sztuk tego produktu powinien kupić właściciel sklepu na początku dnia?

Rozwiązanie. Zbudujmy macierz zysków dla właściciela sklepu. Obliczmy, jaki zysk uzyska właściciel, jeśli np. kupi 7 sztuk produktu, a w 6 dniu i na koniec dnia sprzeda jedną sztukę. Każda jednostka produktu sprzedana w ciągu dnia daje zysk 100 UAH, a na koniec dnia - stratę 200 - 150 = 50 UAH. Zatem zysk w tym przypadku będzie wynosić:

Obliczenia przeprowadza się analogicznie dla innych kombinacji podaży i popytu.

Oczekiwany zysk oblicza się jako matematyczne oczekiwanie możliwych wartości zysku dla każdego wiersza skonstruowanej macierzy, z uwzględnieniem odpowiednich prawdopodobieństw. Jak widać, wśród oczekiwanych zysków największy to 525 UAH. Odpowiada zakupowi danego produktu w ilości 6 sztuk.

Aby uzasadnić ostateczną rekomendację zakupu wymaganej liczby jednostek produktu, obliczamy wariancję, odchylenie standardowe i współczynnik zmienności dla każdej możliwej kombinacji podaży i popytu na produkt (każdy wiersz macierzy zysku):

400 0,1 40 16000
400 0,3 120 48000
400 0,5 200 80000
400 0,1 40 16000
1,0 400 160000
350 0,1 35 12250
500 0,3 150 75000
500 0,5 250 125000
500 0,1 50 25000
1,0 485 2372500
300 0,1 30 9000
450 0,3 135 60750
600 0,5 300 180000
600 0,1 60 36000
1,0 525 285750

Jeśli chodzi o właściciela sklepu kupującego 6 sztuk produktu w porównaniu do 5 i 4 sztuk, nie jest to oczywiste, gdyż ryzyko przy zakupie 6 sztuk produktu (19,2%) jest większe niż przy zakupie 5 sztuk (9,3%) i nawet większe niż przy zakupie 4 sztuk (0%).

Dzięki temu mamy pełną informację o przewidywanych zyskach i ryzyku. A właściciel sklepu decyduje, ile sztuk produktu musi kupić każdego ranka, biorąc pod uwagę swoje doświadczenie i apetyt na ryzyko.

Naszym zdaniem właścicielowi sklepu należy polecić zakup 5 sztuk produktu każdego ranka, a jego średni oczekiwany zysk wyniesie 485 UAH. a jeśli porównać to z zakupem 6 sztuk produktu, przy którym średni oczekiwany zysk wynosi 525 UAH, czyli 40 UAH. więcej, ale ryzyko w tym przypadku będzie 2,06 razy większe.