Nivelurile problemelor de transmitere a informațiilor. Măsuri sintactice, semantice și pragmatice ale informațiilor

Tema 2. Bazele reprezentării și procesării informațiilor într-un computer

Literatură

1. Informatică în economie: manual/Ed. FI. Odintsova, A.N. Romanova. – M.: Manual universitar, 2008.

2. Informatică: Curs de bază: Manual/Ed. S.V. Simonovici. – Sankt Petersburg: Peter, 2009.

3. Informatica. Curs general: Manual/Coautor: A.N. Guda, M.A. Butakova, N.M. Nechitailo, A.V. Cernov; Sub general ed. IN SI. Kolesnikova. – M.: Dashkov și K, 2009.

4. Informatică pentru economiști: Manual/Ed. Matyushka V.M. - M.: Infra-M, 2006.

5. Informatica economica: Introducere in analiza economica a sistemelor informatice - M.: INFRA-M, 2005.

Măsuri ale informațiilor (sintactice, semantice, pragmatice)

Pentru măsurarea informațiilor pot fi utilizate diverse abordări, dar cele mai utilizate sunt statistic(probabilistic), semanticși p pragmatic metode.

Statistic Metoda (probabilistă) de măsurare a informațiilor a fost dezvoltată de K. Shannon în 1948, care a propus să se considere cantitatea de informații ca o măsură a incertitudinii stării sistemului, care este eliminată ca urmare a primirii informațiilor. Expresia cantitativă a incertitudinii se numește entropie. Dacă, după primirea unui anumit mesaj, observatorul a dobândit informații suplimentare despre sistem X, atunci incertitudinea a scăzut. Cantitatea suplimentară de informații primite este definită ca:

unde este cantitatea suplimentară de informații despre sistem X, primit sub forma unui mesaj;

Incertitudinea inițială (entropia) a sistemului X;

Incertitudine finită (entropie) a sistemului X, care apar după primirea mesajului.

Dacă sistemul X poate fi într-una dintre stările discrete, al căror număr n, iar probabilitatea de a găsi sistemul în fiecare dintre ele este egală și suma probabilităților tuturor stărilor este egală cu unu, apoi entropia este calculată folosind formula lui Shannon:

unde este entropia sistemului X;

A- baza logaritmului, care determină unitatea de măsură a informaţiei;

n– numărul de stări (valori) în care se poate afla sistemul.

Entropia este o mărime pozitivă și, deoarece probabilitățile sunt întotdeauna mai mici decât unu, iar logaritmul lor este negativ, prin urmare semnul minus din formula lui K. Shannon face ca entropia să fie pozitivă. Astfel, aceeași entropie, dar cu semnul opus, este luată ca măsură a cantității de informații.

Relația dintre informație și entropie poate fi înțeleasă astfel: obținerea de informații (creșterea acesteia) simultan înseamnă reducerea ignoranței sau a incertitudinii informaționale (entropie)

Astfel, abordarea statistică ține cont de probabilitatea apariției mesajelor: mesajul care este mai puțin probabil este considerat mai informativ, i.e. cel mai putin asteptat. Cantitatea de informații atinge valoarea maximă dacă evenimentele sunt la fel de probabile.

R. Hartley a propus următoarea formulă pentru măsurarea informațiilor:

I=log2n ,

Unde n- numărul de evenimente la fel de probabile;

eu– o măsură a informațiilor dintr-un mesaj despre apariția unuia dintre n evenimente

Măsurarea informației este exprimată în volumul acesteia. Cel mai adesea, aceasta se referă la cantitatea de memorie a computerului și cantitatea de date transmise prin canalele de comunicare. O unitate este considerată cantitatea de informație la care incertitudinea este redusă la jumătate; o astfel de unitate de informație se numește pic .

Dacă logaritmul natural () este utilizat ca bază a logaritmului în formula lui Hartley, atunci unitatea de măsură a informației este nat ( 1 bit = ln2 ≈ 0,693 nat). Dacă numărul 3 este folosit ca bază a logaritmului, atunci - trata, dacă 10, atunci - dit (Hartley).

În practică, o unitate mai mare este folosită mai des - octet(octet) egal cu opt biți. Această unitate a fost aleasă deoarece poate fi folosită pentru a codifica oricare dintre cele 256 de caractere ale alfabetului tastaturii computerului (256=28).

Pe lângă octeți, informațiile sunt măsurate în jumătate de cuvinte (2 octeți), cuvinte (4 octeți) și cuvinte duble (8 octeți). Unitățile de măsură și mai mari de informații sunt, de asemenea, utilizate pe scară largă:

1 kilooctet (KB - kilobyte) = 1024 octeți = 210 octeți,

1 Megaoctet (MB - megaoctet) = 1024 KB = 220 de octeți,

1 gigaoctet (GB - gigabyte) = 1024 MB = 230 de octeți.

1 Teraoctet (TB - terabyte) = 1024 GB = 240 de octeți,

1 petaoctet (PByte - petabyte) = 1024 TB = 250 de octeți.

În 1980, matematicianul rus Yu. Manin a propus ideea de a construi un computer cuantic, în legătură cu care o astfel de unitate de informație a apărut ca qubit ( bit cuantic, qubit ) – „bit cuantic” este o măsură de măsurare a cantității de memorie într-o formă posibilă teoretic de computer care utilizează medii cuantice, de exemplu, spinurile electronilor. Un qubit poate lua nu două valori diferite („0” și „1”), ci mai multe, corespunzătoare combinațiilor normalizate a două stări de rotație la sol, ceea ce oferă un număr mai mare de combinații posibile. Astfel, 32 de qubiți pot codifica aproximativ 4 miliarde de stări.

Abordare semantică. O măsură sintactică nu este suficientă dacă trebuie să determinați nu volumul de date, ci cantitatea de informații necesare în mesaj. În acest caz, se ia în considerare aspectul semantic, care ne permite să determinăm conținutul informației.

Pentru a măsura conținutul semantic al informațiilor, puteți utiliza tezaurul destinatarului acesteia (consumator). Ideea metodei tezaurului a fost propusă de N. Wiener și dezvoltată de omul nostru de știință A.Yu. Schrader.

Tezaur numit corpul de informații pe care le are destinatarul informaţiei. Corelarea tezaurului cu conținutul mesajului primit vă permite să aflați cât de mult reduce incertitudinea.

Dependența volumului de informații semantice a unui mesaj de tezaurul destinatarului

În funcție de dependența prezentată de grafic, dacă utilizatorul nu deține niciun tezaur (cunoștințe despre esența mesajului primit, adică =0), sau prezența unui astfel de tezaur care nu s-a schimbat ca urmare a sosirii a mesajului (), atunci cantitatea de informații semantice din acesta este egală cu zero. Tezaurul optim () va fi unul în care volumul de informații semantice va fi maxim (). De exemplu, informații semantice dintr-un mesaj primit într-o limbă străină necunoscută va fi zero, dar aceeași situație va fi și în cazul respectiv dacă mesajul nu mai este o știre, deoarece utilizatorul știe deja totul.

Măsură pragmatică informație determină utilitatea acestuiaîn atingerea obiectivelor consumatorului. Pentru a face acest lucru, este suficient să determinați probabilitatea de a atinge obiectivul înainte și după primirea mesajului și să le comparați. Valoarea informațiilor (conform A.A. Kharkevich) se calculează folosind formula:

unde este probabilitatea de a atinge scopul înainte de a primi mesajul;

Probabilitatea atingerii scopului este domeniul de receptare a mesajului;

Măsura sintactică a informațiilor

Orez. 1.1. Măsuri de informare

Măsura sintactică operează asupra volumului de date și cantității de informații exprimate prin entropie (conceptul de incertitudine a stării sistemului).

Măsura semantică operează pe cantitatea de informație exprimată prin volumul și gradul său de conținut.

O măsură pragmatică este determinată de utilitatea ei, exprimată prin efectele economice corespunzătoare.

Măsura sintactică a informațiilor

Această măsură a cantității de informații operează cu informații impersonale care nu exprimă o relație semantică cu obiectul.

Astăzi, sunt cele mai cunoscute următoarele metode de măsurare cantitativă a informației: volumetrice, entropică, algoritmică.

Volumetric este cel mai simplu și mai grosier mod de a măsura informații. Evaluarea cantitativă corespunzătoare a informațiilor poate fi numită în mod firesc volumul de informații.

Cantitatea de informații este numărul de caractere din mesaj. Deoarece același număr poate fi scris în multe moduri diferite, adică folosind alfabete diferite, de exemplu douăzeci și unu - 21 - XXI - 11001, această metodă este sensibilă la forma de prezentare (înregistrare) a mesajului. În calcul, toate informațiile prelucrate și stocate, indiferent de natura lor (număr, text, afișare), sunt prezentate în formă binară (folosind un alfabet format din doar două caractere „0” și „1”).

În sistemul numeric binar, unitatea de măsură este un bit (bit – cifră binară – cifră binară).

În teoria informației, un bit este cantitatea de informație necesară pentru a distinge două mesaje la fel de probabile; iar în calcul, un bit este cea mai mică „porțiune” de memorie necesară pentru a stoca unul dintre cele două caractere „0” și „1” utilizate pentru reprezentarea internă a datelor și comenzilor pe mașină. Aceasta este o unitate de măsură prea mică; în practică, se folosește mai des o unitate mai mare - un octet - egală cu cei 8 biți necesari pentru a codifica oricare dintre cele 256 de caractere ale alfabetului tastaturii computerului (256 = 2 8).

Unități de informații derivate chiar și mai mari sunt, de asemenea, utilizate pe scară largă:

1 kilobyte (kbyte) = 1024 bytes = 2 10 bytes;

1 Megaoctet (MB) = 1024 KB = 2 20 octeți;

1 gigabyte (GB) = 1024 MB = 2 30 octeți.

Recent, din cauza creșterii volumului de informații procesate, au intrat în uz următoarele unități derivate:

1 Terabyte (TB) = 1024 GB = 2 40 octeți;

1 petabyte (PB) = 1024 TB = 2 50 octeți.

În sistemul numeric zecimal, unitatea de măsură este dit (locul zecimal).

Un mesaj din sistemul binar sub forma unui cod binar de opt biți 1011 1011 are un volum de date V D = 8 biți.

Un mesaj în sistemul zecimal sub forma unui număr de șase cifre 275 903 are un volum de date V D = 6 biți.

În teoria informației și a codificării, este adoptată o abordare a entropiei pentru măsurarea informațiilor. Obținerea de informații despre un sistem este întotdeauna asociată cu o schimbare a gradului de ignoranță a destinatarului cu privire la starea acestui sistem. Această metodă de măsurare provine din următorul model.

Lăsați consumatorul să aibă câteva informații preliminare (a priori) despre sistem α înainte de a primi informații. După primirea mesajului b, destinatarul a dobândit câteva informații suplimentare I(b), care i-au redus ignoranța. Aceste informații sunt în general nesigure și sunt exprimate prin probabilitățile cu care se așteaptă la un eveniment sau altul. Măsura generală a incertitudinii (entropia) este caracterizată de o anumită dependență matematică de totalitatea acestor probabilități. Cantitatea de informații dintr-un mesaj este determinată de cât de mult scade această măsură după primirea mesajului.

Astfel, inginerul american R. Hartley (1928) consideră procesul de obținere a informațiilor drept selecția unui mesaj dintr-un set finit predeterminat de N mesaje la fel de probabile, iar cantitatea de informație i conținută în mesajul selectat este definită ca binar. logaritmul lui N (formula lui Hartley):

Să presupunem că trebuie să ghiciți un număr dintr-un set de numere de la unu la o sută. Folosind formula lui Hartley, puteți calcula câte informații sunt necesare pentru aceasta: , adică un mesaj despre un număr ghicit corect conține o cantitate de informații aproximativ egală cu 6.644 unități de informații.

Alte exemple de mesaje la fel de probabile:

1) la aruncarea unei monede, „a venit cu capul”, „a venit cu capul”;

2) pe pagina cărții „numărul de litere este par”, „numărul de litere este impar”.

Este imposibil să răspundem fără echivoc la întrebarea dacă mesajele „femeia va fi prima care va părăsi ușa clădirii” și „bărbatul va fi primul care va părăsi ușa clădirii” sunt la fel de probabile. Totul depinde de ce fel de clădire vorbim. Dacă aceasta este, de exemplu, o stație de metrou, atunci probabilitatea de a părăsi prima ușă este aceeași pentru un bărbat și o femeie, iar dacă aceasta este o cazarmă militară, atunci pentru un bărbat această probabilitate este mult mai mare decât pentru o femeie. .

Pentru probleme de acest gen, omul de știință american Claude Shannon a propus în 1948 o altă formulă pentru determinarea cantității de informații, ținând cont de posibila probabilitate inegală a mesajelor într-un set (formula lui Shannon):

unde este probabilitatea ca mesajul i-a să fie selectat într-un set de N mesaje.

Este ușor de observat că dacă probabilitățile ... sunt egale, atunci fiecare dintre ele este egală și formula lui Shannon se transformă în formula lui Hartley.

Pe lângă cele două abordări luate în considerare pentru determinarea cantității de informații, există și altele. Este important să ne amintim că orice rezultate teoretice sunt aplicabile doar pentru o anumită gamă de cazuri, subliniate de ipotezele inițiale.

Teoria algoritmică a informației (o secțiune a teoriei algoritmilor) propune o metodă algoritmică de evaluare a informațiilor dintr-un mesaj. Orice mesaj i se poate atribui o caracteristică cantitativă care reflectă complexitatea (mărimea) programului care permite producerea acestuia.

Coeficientul (gradul) conținutului informațional (concizia) unui mesaj este determinat de raportul dintre cantitatea de informații și volumul total de date primite:

, și 0< Y < 1.

Pe măsură ce Y crește, cantitatea de muncă pentru transformarea informațiilor (date) din sistem scade. Prin urmare, este necesar să ne străduim să creștem conținutul informațional, pentru care se dezvoltă metode speciale de codificare optimă a informațiilor.

1.4.2.2 Măsura semantică a informaţiei

Semantica este știința sensului, conținutul informației.

Pentru a măsura conținutul semantic al informațiilor, adică cantitatea acesteia la nivel semantic, măsura tezaurului, care leagă proprietățile semantice ale informațiilor cu capacitatea utilizatorului de a accepta mesajul primit, a primit cea mai mare recunoaștere. Același mesaj de informare (articol de ziar, reclamă, scrisoare, telegramă, certificat, poveste, desen, transmisie radio etc.) poate conține cantități diferite de informații pentru diferite persoane, în funcție de cunoștințele lor anterioare, de nivelul de înțelegere a acestui mesaj și de interesul pentru l.

Pentru a măsura cantitatea de informații semantice, se folosește conceptul de „tezaur al utilizatorului”, adică totalitatea informațiilor disponibile utilizatorului sau sistemului.

În funcție de relația dintre conținutul semantic al informației S și tezaurul utilizatorului S p , cantitatea de informație semantică I c percepută de utilizator și inclusă ulterior de acesta în tezaurul său se modifică. Natura acestei dependențe este prezentată în Figura 1. 2.

Orez. 1. 2. Dependența cantității de informații semantice percepute de consumator de tezaurul său I C = f(S p)

Să luăm în considerare două cazuri limită când cantitatea de informație semantică I C este egală cu 0:

La utilizatorul nu percepe sau înțelege informațiile primite;

La utilizatorul știe totul și nu are nevoie de informațiile primite.

Consumatorul dobândește cantitatea maximă de informații semantice atunci când își coordonează conținutul semantic S cu tezaurul său ( ), atunci când informațiile primite sunt de înțeles utilizatorului și îi oferă acestuia informații necunoscute anterior (nu în tezaurul său).

Prin urmare, cantitatea de informații semantice și cunoștințe noi dintr-un mesaj primit de utilizator este o valoare relativă.

O măsură relativă a cantității de informații semantice poate fi coeficientul de conținut C, definit ca raportul dintre cantitatea de informații semantice și volumul acesteia.

Pentru a măsura conținutul semantic al informațiilor, i.e. cantitatea sa la nivel semantic, cea mai recunoscută este măsura tezaurului, care leagă proprietățile semantice ale informațiilor cu capacitatea utilizatorului de a accepta mesajul primit. În acest scop este folosit conceptul tezaurul utilizatorului.

Tezaur este o colecție de informații disponibile unui utilizator sau unui sistem.

În funcţie de relaţia dintre conţinutul semantic al informaţiei Sși tezaurul utilizatorului S p cantitatea de informații semantice se modifică IC, perceput de utilizator și inclus ulterior de acesta în tezaurul său. Natura acestei dependențe este prezentată în Fig. 2.2. Să luăm în considerare două cazuri limitative când cantitatea de informații semantice IC este egal cu 0:

la S p 0 utilizatorul nu percepe sau înțelege informațiile primite;

la Sp; utilizatorul știe totul, dar nu are nevoie de informațiile primite.

Orez. 2.2. Dependența cantității de informații semantice. perceput de consumator, din tezaurul său Ic=f(Sp)

Cantitatea maximă de informații semantice IC consumatorul dobândeşte prin acordul asupra conţinutului său semantic S cu tezaurul tău S p (S p = S p opt), atunci când informațiile primite sunt de înțeles utilizatorului și îi oferă acestuia informații necunoscute anterior (nu în tezaurul său).

În consecință, cantitatea de informații semantice dintr-un mesaj, cantitatea de cunoștințe noi primite de utilizator, este o valoare relativă. Același mesaj poate avea conținut semnificativ pentru un utilizator competent și poate fi lipsit de sens (zgomot semantic) pentru un utilizator incompetent.

Atunci când se evaluează aspectul semantic (conținut) al informațiilor, este necesar să se depună eforturi pentru armonizarea valorilor SȘi Sp.

O măsură relativă a cantității de informații semantice poate fi coeficientul de conținut CU, care este definit ca raportul dintre cantitatea de informații semantice și volumul acesteia:

Măsura pragmatică a informațiilor

Această măsură determină utilitatea informațiilor (valorii) pentru ca utilizatorul să își atingă scopul. Această măsură este, de asemenea, o valoare relativă, determinată de particularitățile utilizării acestor informații într-un anumit sistem. Este recomandabil să se măsoare valoarea informației în aceleași unități (sau aproape de acestea) în care se măsoară funcția obiectiv.



Exemplul 2.5.Într-un sistem economic, proprietățile pragmatice (valoarea) informațiilor pot fi determinate de creșterea efectului economic al operațiunii realizată prin utilizarea acestor informații pentru a gestiona sistemul:

Inb(g)=P(g/b)-P(g),

Unde Inb(g)-valoarea mesajului informativ b pentru sistemul de control g,

P(g)- efectul economic așteptat a priori al funcționării sistemului de control g ,

P(g/b)- efectul așteptat al funcționării sistemului g, cu condiția ca informațiile conținute în mesajul b să fie utilizate pentru control.

Pentru comparație, prezentăm măsurile de informare introduse în Tabelul 2.1.

Tabelul 2.1. Unități de informare și exemple

CALITATEA INFORMAȚIILOR

Posibilitatea și eficacitatea utilizării informațiilor sunt determinate de nevoile sale de bază ale consumatorilor: indicatori de calitate, ca reprezentativitate, semnificație, suficiență, accesibilitate, relevanță, actualitate, acuratețe, fiabilitate, durabilitate.

  • Reprezentativitatea informația este asociată cu corectitudinea selecției și formării sale pentru a reflecta în mod adecvat proprietățile obiectului. Cele mai importante lucruri aici sunt:
  • corectitudinea conceptului pe baza căruia este formulat conceptul inițial;
  • validitatea selecției trăsăturilor și conexiunilor esențiale ale fenomenului afișat.
  • Încălcarea reprezentativității informațiilor duce adesea la erori semnificative.
  • Conţinut informația reflectă capacitatea semantică egală cu raportul dintre cantitatea de informații semantice dintr-un mesaj și volumul de date procesate, adică C=Ic/Vd.

Pe măsură ce conținutul informațiilor crește, debitul semantic al sistemului informațional crește, deoarece pentru a obține aceeași informație este necesară convertirea unei cantități mai mici de date.

Alături de coeficientul de conținut C, care reflectă aspectul semantic, puteți utiliza și coeficientul de conținut informațional, caracterizat prin raportul dintre cantitatea de informații sintactice (după Shannon) și cantitatea de date. Y=I/Vd.

  • Suficiență (completitudine) informația înseamnă că conține o compoziție minimă, dar suficientă (set de indicatori) pentru a lua decizia corectă. Conceptul de completitudine a informațiilor este asociat cu conținutul ei semantic (semantică) și pragmatică. Ca incomplet, i.e. Informațiile insuficiente pentru a lua decizia corectă, iar informațiile redundante reduc eficacitatea deciziilor luate de utilizator.
  • Disponibilitate informarea la percepția utilizatorului este asigurată prin implementarea unor proceduri adecvate pentru achiziția și transformarea acesteia. De exemplu, într-un sistem informațional, informația este transformată într-o formă accesibilă și ușor de utilizat. Acest lucru se realizează, în special, prin coordonarea formei sale semantice cu tezaurul utilizatorului.
  • Relevanţă informaţia este determinată de gradul de păstrare a valorii informaţiei pentru management la momentul utilizării acesteia şi depinde de dinamica modificărilor caracteristicilor acesteia şi de intervalul de timp care a trecut de la apariţia acestor informaţii.
  • Promptitudine informația înseamnă sosirea acesteia cel târziu într-un moment predeterminat în timp, în concordanță cu momentul rezolvării sarcinii.
  • Precizie informaţia este determinată de gradul de apropiere a informaţiei primite de starea reală a obiectului, procesului, fenomenului etc. Pentru informațiile afișate printr-un cod digital, sunt cunoscute patru concepte de clasificare a preciziei:
  • precizie formală, măsurată prin valoarea unitară a cifrei celei mai puțin semnificative a unui număr;
  • acuratețea reală, determinată de valoarea unității ultimei cifre a numărului, a cărei acuratețe este garantată;
  • acuratețea maximă care poate fi obținută în condițiile specifice de funcționare ale sistemului;
  • acuratețea necesară, determinată de scopul funcțional al indicatorului.

Credibilitate informația este determinată de proprietatea sa de a reflecta obiectele din viața reală cu acuratețea necesară. Fiabilitatea informațiilor este măsurată prin probabilitatea de încredere a acurateței cerute, adică probabilitatea ca valoarea unui parametru afișat prin informații să difere de valoarea reală a acestui parametru în cadrul preciziei cerute.

Durabilitate informația reflectă capacitatea sa de a răspunde la modificările datelor sursă fără a încălca acuratețea necesară. Stabilitatea informației, precum și reprezentativitatea, este determinată de metodologia aleasă pentru selecția și formarea acesteia.

În concluzie, trebuie remarcat că asemenea parametri ai calității informației precum reprezentativitatea, conținutul, suficiența, accesibilitatea, sustenabilitatea sunt în întregime determinați la nivelul metodologic al dezvoltării sistemelor informaționale. Parametrii de relevanță, promptitudine, acuratețe și fiabilitate sunt, de asemenea, determinați într-o mai mare măsură la nivel metodologic, dar valoarea lor este influențată semnificativ de natura funcționării sistemului, în primul rând de fiabilitatea acestuia. În același timp, parametrii de relevanță și acuratețe sunt strict legați de parametrii de actualitate și, respectiv, de fiabilitate.

După cum sa menționat deja, conceptul de informație poate fi luat în considerare în cadrul diferitelor restricții impuse proprietăților sale, de exemplu. la diferite niveluri de considerare. Există în principal trei niveluri – sintactic, semantic și pragmatic. În consecință, la fiecare dintre ele, sunt utilizate estimări diferite pentru a determina cantitatea de informații.

La nivel sintactic, pentru estimarea cantității de informații se folosesc metode probabilistice, care țin cont doar de proprietățile probabilistice ale informațiilor și nu țin cont de altele (conținut semantic, utilitate, relevanță etc.). Dezvoltat la mijlocul secolului al XX-lea. metodele matematice și, în special, probabilistice au făcut posibilă formularea unei abordări de evaluare a cantității de informații ca măsură de reducere a incertitudinii cunoașterii.

Această abordare, numită și probabilistică, postulează principiul: dacă un mesaj duce la o scădere a incertitudinii cunoștințelor noastre, atunci putem spune că un astfel de mesaj conține informații. În acest caz, mesajele conțin informații despre orice evenimente care pot avea loc cu probabilități diferite.

O formulă pentru determinarea cantității de informații pentru evenimente cu probabilități diferite și primite dintr-o sursă discretă de informații a fost propusă de omul de știință american K. Shannon în 1948. Conform acestei formule, cantitatea de informații poate fi determinată după cum urmează:

Unde eu– cantitatea de informații; N– numărul de evenimente posibile (mesaje); p i– probabilitatea unor evenimente individuale (mesaje).

Cantitatea de informații determinată folosind formula (2.1) ia doar o valoare pozitivă. Deoarece probabilitatea evenimentelor individuale este mai mică de unu, atunci, în consecință, expresia log 2, - este o valoare negativă și pentru a obține o valoare pozitivă pentru cantitatea de informații din formula (2.1) există un semn „minus” înainte de semnul sumei.

Dacă probabilitatea de apariție a evenimentelor individuale este aceeași și ele formează un grup complet de evenimente, adică:

atunci formula (2.1) se transformă în formula lui R. Hartley:

În formulele (2.1) și (2.2), relația dintre cantitatea de informații euși, în consecință, probabilitatea (sau numărul) evenimentelor individuale este exprimată folosind un logaritm.

Utilizarea logaritmilor în formulele (2.1) și (2.2) poate fi explicată după cum urmează. Pentru simplitatea raționamentului, folosim relația (2.2). Vom atribui secvenţial argumentului N valorile selectate, de exemplu, dintr-o serie de numere: 1, 2, 4, 8, 16, 32, 64 etc. Pentru a determina ce eveniment N au avut loc evenimente la fel de probabile, pentru fiecare număr din serie este necesară efectuarea secvenţială a operaţiilor de selecţie din două evenimente posibile.

Da cand N= 1 numarul de operatii va fi egal cu 0 (probabilitatea evenimentului este egala cu 1), cu N= 2, numărul de operații va fi egal cu 1, când N= 4 numarul de operatii va fi egal cu 2, cand N= 8, numărul de operații va fi 3 etc. Astfel, obținem următoarea serie de numere: 0, 1, 2, 3, 4, 5, 6 etc., care pot fi considerate corespunzătoare valorilor funcției euîn relaţie (2.2).

Secvența de valori numerice pe care o ia argumentul N, este o serie cunoscută în matematică ca o serie de numere care formează o progresie geometrică și succesiunea de valori numerice pe care o ia funcția eu, va fi o serie care formează o progresie aritmetică. Astfel, logaritmul din formulele (2.1) și (2.2) stabilește o relație între seria reprezentând progresii geometrice și aritmetice, lucru destul de cunoscut în matematică.

Pentru a cuantifica (evalua) orice mărime fizică, este necesar să se definească o unitate de măsură, care în teoria măsurării se numește măsuri .


După cum sa menționat deja, informațiile trebuie să fie codificate înainte de procesare, transmitere și stocare.

Codarea se face folosind alfabete speciale (sisteme de semne). În informatică, care studiază procesele de primire, procesare, transmitere și stocare a informațiilor cu ajutorul sistemelor de calcul (calculatoare), se utilizează în principal codificarea binară, care folosește un sistem de semne format din două simboluri 0 și 1. Din acest motiv, în formulele ( 2.1) și (2.2) numărul 2 este folosit ca bază a logaritmului.

Pe baza abordării probabilistice pentru determinarea cantității de informații, aceste două simboluri ale sistemului de semne binar pot fi considerate ca două evenimente posibile diferite, prin urmare, o unitate de cantitate de informație este considerată a fi cantitatea de informație care conține un mesaj care reduce incertitudinea cunoașterii la jumătate (înainte de a primi evenimente, probabilitatea acestora este 0 ,5, după primirea – 1, incertitudinea scade în mod corespunzător: 1/0,5 = 2, adică de 2 ori). Această unitate de măsură a informațiilor se numește bit (din cuvântul englezesc Cifră binară- Cifră binară). Astfel, un bit este luat ca măsură pentru estimarea cantității de informații la nivel sintactic, presupunând codificare binară.

Următoarea unitate de măsură cea mai mare a cantității de informații este un octet, care este o secvență formată din opt biți, adică:

1 octet = 2 3 biți = 8 biți.

În informatică, unitățile de măsură ale cantității de informații care sunt multipli ai octetului sunt, de asemenea, utilizate pe scară largă, dar spre deosebire de sistemul metric de măsuri, unde coeficientul 10n este utilizat ca multiplicatori de unități multiple, unde n = 3, 6, 9 etc., în mai multe unități de măsură ale cantității de informații se folosește coeficientul 2n. Această alegere se explică prin faptul că computerul funcționează în principal cu numere nu în sistemul numeric zecimal, ci în sistemul numeric binar.

Unitățile de măsurare a cantității de informații care sunt multipli ai unui octet sunt introduse după cum urmează:

1 kilobyte (KB) = 210 bytes = 1024 bytes;

1 megaoctet (MB) = 210 KB = 1024 KB;

1 gigaoctet (GB) = 210 MB = 1024 MB;

1 terabyte (TB) = 210 GB = 1024 GB;

1 petabyte (PB) = 210 TB = 1024 TB;

1 exabyte (Ebyte) = 210 PB = 1024 PB.

Unitățile de măsură ale cantității de informații, ale căror nume conțin prefixele „kilo”, „mega”, etc., nu sunt corecte din punctul de vedere al teoriei măsurării, deoarece aceste prefixe sunt utilizate în sistemul metric de măsuri. , în care un coeficient este utilizat ca multiplicatori ai mai multor unități 10 n, unde n = 3, 6, 9 etc. Pentru a elimina această incorectitudine, organizația internațională Comisia Electrotehnică Internațională, care creează standarde pentru industria tehnologiei electronice, a aprobat o serie de noi prefixe pentru unitățile de măsură ale cantității de informații: kibi, mebi, gibi, tebi, peti, exbi. Cu toate acestea, vechile denumiri pentru unitățile de măsurare a cantității de informații sunt încă folosite și va dura timp până când noile denumiri vor deveni utilizate pe scară largă.

Abordarea probabilistică este utilizată și în determinarea cantității de informații prezentate folosind sisteme de semne. Dacă considerăm caracterele alfabetului ca un set de mesaje posibile N, atunci cantitatea de informații transportată de un caracter al alfabetului poate fi determinată prin formula (2.1). Dacă fiecare caracter al alfabetului apare la fel de probabil în textul mesajului, formula (2.2) poate fi folosită pentru a determina cantitatea de informații.

Cantitatea de informații pe care o poartă un caracter al alfabetului, cu atât este mai mare numărul de caractere incluse în acest alfabet. Numărul de caractere incluse în alfabet se numește puterea alfabetului. Cantitatea de informații (volumul de informații) conținută într-un mesaj codificat folosind un sistem de semne și care conține un anumit număr de caractere (simboluri) se determină cu ajutorul formulei:

Unde V– volumul informativ al mesajului; eu= log2N, volumul de informații al unui simbol (semn); LA– numărul de simboluri (semne) din mesaj; N– puterea alfabetului (numărul de caractere din alfabet).

Interacțiunea informațională. Metode de transmitere a informațiilor. Clasificarea informațiilor.

Conceptul de informare. Proprietățile informațiilor. Formulare pentru prezentarea informațiilor.

Informație (din latinescul informatio - „explicație, prezentare, conștientizare”) - informații despre ceva, indiferent de forma de prezentare a acestuia.

Informațiile pot fi împărțite în tipuri în funcție de diferite criterii:

prin perceptie:

Vizual - perceput de organele vederii.

Auditiv – perceput de organele auditive.

Tactil - perceput de receptorii tactili.

Olfactiv – perceput de receptorii olfactivi.

Gustativ – perceput de papilele gustative.

conform formularului de prezentare:

Text - transmis sub formă de simboluri destinate să desemneze lexeme ale limbii.

Numerică - sub formă de numere și semne care indică operații matematice.

Grafic - sub formă de imagini, obiecte, grafice.

Sunetul – oral sau sub formă de înregistrare și transmitere a lexemelor lingvistice prin mijloace auditive.

dupa scop:

Masa - contine informatii banale si opereaza cu un set de concepte inteles de majoritatea societatii.

Special - conține un set specific de concepte; atunci când este utilizată, se transmite informații care pot să nu fie înțelese de cea mai mare parte a societății, dar sunt necesare și de înțeles în cadrul grupului social restrâns în care sunt utilizate aceste informații.

Secret - transmis unui cerc restrâns de oameni și prin canale închise (protejate).

Personal (privat) - un set de informații despre o persoană care determină statutul social și tipurile de interacțiuni sociale în cadrul populației.

dupa valoare:

Relevant - informații care sunt valoroase la un moment dat.

Fiabil - informații obținute fără distorsiuni.

De înțeles - informații exprimate într-o limbă pe înțelesul celor cărora le sunt destinate.

Complet - informații suficiente pentru a lua o decizie sau înțelegere corectă.

Util - utilitatea informatiei este determinata de subiectul care a primit informatia in functie de sfera posibilitatilor de utilizare a acesteia.

întradevăr:

Adevărat

În informatică, subiectul studiului informațiilor îl reprezintă tocmai datele: metode de creare, stocare, prelucrare și transmitere a acestora.

Transferul de informații este procesul de transfer spațial al acesteia de la o sursă la un destinatar (destinatar). Omul a învățat să transmită și să primească informații chiar mai devreme decât să le stocheze. Vorbirea este o metodă de transmitere pe care strămoșii noștri îndepărtați au folosit-o în contact direct (conversație) - o folosim și acum. Pentru a transmite informații pe distanțe mari este necesară utilizarea unor procese informaționale mult mai complexe.



Pentru a efectua un astfel de proces, informațiile trebuie formatate (prezentate) într-un fel. Pentru prezentarea informațiilor se folosesc diverse sisteme de semne - seturi de simboluri semantice predeterminate: obiecte, imagini, cuvinte scrise sau tipărite ale limbajului natural. Informațiile semantice despre orice obiect, fenomen sau proces prezentate cu ajutorul lor se numesc mesaj.

Evident, pentru a transmite un mesaj la distanță, informațiile trebuie transferate pe un fel de mediu mobil. Transportatorii se pot deplasa prin spațiu folosind vehicule, așa cum se întâmplă cu scrisorile trimise prin poștă. Această metodă asigură fiabilitatea completă a transmiterii informațiilor, deoarece destinatarul primește mesajul original, dar necesită timp semnificativ pentru transmitere. De la mijlocul secolului al XIX-lea s-au răspândit metodele de transmitere a informației folosind un purtător de informații care se propagă natural - vibrațiile electromagnetice (vibrații electrice, unde radio, lumină). Dispozitivele care implementează procesul de transfer de date formează sisteme de comunicare. În funcție de modalitatea de prezentare a informațiilor, sistemele de comunicații pot fi împărțite în semne (telegraf, telefax), sonor (telefon), video și sisteme combinate (televiziune). Cel mai dezvoltat sistem de comunicare din vremea noastră este Internetul.

Unitățile informaționale sunt folosite pentru a măsura diferite caracteristici asociate informațiilor.

Cel mai adesea, măsurarea informației se referă la măsurarea capacității memoriei computerului (dispozitive de stocare) și măsurarea cantității de date transmise prin canalele de comunicații digitale. Mai puțin frecvent măsurată este cantitatea de informații.

Bit (cifră binară engleză - număr binar; de asemenea, un joc de cuvinte: bit englezesc - bucată, particulă) - o unitate de măsură a cantității de informații, egală cu o cifră în sistemul numeric binar. Desemnat conform GOST 8.417-2002

Claude Shannon în 1948 a propus utilizarea cuvântului bit pentru a desemna cea mai mică unitate de informație:

Un bit este logaritmul binar al probabilității evenimentelor la fel de probabile sau suma produselor probabilității prin logaritmul binar al probabilității pentru evenimente la fel de probabile; vezi entropia informației.

Bit - o unitate de măsură de bază a cantității de informații, egală cu cantitatea de informații conținute într-o experiență care are două rezultate la fel de probabile; vezi entropia informației. Aceasta este identică cu cantitatea de informații din răspunsul la o întrebare care permite răspunsurile „da” sau „nu” și nimic altceva (adică cantitatea de informații care vă permite să răspundeți fără ambiguitate la întrebarea pusă).

Măsura sintactică a informațiilor

Apariția științei informației ca știință poate fi datată de la sfârșitul anilor 50 ai secolului nostru, când inginerul american R. Hartley a încercat să introducă o măsură cantitativă a informațiilor transmise prin canalele de comunicare. Să luăm în considerare o situație simplă de joc. Înainte de a primi un mesaj despre rezultatul aruncării unei monede, o persoană se află într-o stare de incertitudine cu privire la rezultatul următoarei aruncări. Mesajul partenerului oferă informații care înlătură această incertitudine. Rețineți că numărul de rezultate posibile în situația descrisă este 2, acestea sunt egale (la fel de probabile) și de fiecare dată când informațiile transmise au eliminat complet incertitudinea apărută. Hartley a preluat „cantitatea de informații” transmisă pe un canal de comunicare cu privire la două rezultate egale și înlăturând incertitudinea influențând unul dintre ele, ca o unitate de informație numită „bit”.

Măsura semantică a informațiilor

O nouă etapă în extinderea teoretică a conceptului de informație este asociată cu cibernetica - știința controlului și comunicării în organismele vii, societate și mașini. Rămânând în pozițiile abordării Shannon, cibernetica formulează principiul unității informațiilor și controlului, care este deosebit de important pentru analiza esenței proceselor care au loc în sistemele biologice și sociale auto-guvernante, autoorganizate. Conceptul dezvoltat în lucrările lui N. Wiener presupune că procesul de control în sistemele menționate este un proces de prelucrare (transformare) de către un dispozitiv central a informațiilor primite din surse de informații primare (receptorii senzoriali) și transmiterea acesteia către acele părți ale sistemul în care este perceput de elementele sale ca un ordin de a efectua cutare sau cutare acțiune. După acțiunea în sine, receptorii senzoriali sunt gata să transmită informații despre situația schimbată pentru a efectua un nou ciclu de control. Așa se organizează un algoritm ciclic (secvență de acțiuni) pentru gestionarea și circulația informațiilor în sistem. Este important ca aici rolul principal să fie jucat de conținutul informațiilor transmise de receptori și de dispozitivul central. Informația, potrivit lui Wiener, este „o desemnare a conținutului primit din lumea exterioară în procesul adaptării noastre la ea și a adaptării simțurilor noastre la ea”.

Măsura pragmatică a informațiilor

În conceptele pragmatice de informare, acest aspect este central, ceea ce duce la necesitatea luării în considerare a valorii, utilităţii, eficienţei, economiei informaţiei, i.e. acelea dintre calitățile sale care influențează decisiv comportamentul sistemelor cibernetice auto-organizate, autoguvernante, cu scop (biologic, social, om-mașină).

Unul dintre cei mai străluciți reprezentanți ai teoriilor pragmatice ale informației este modelul comportamental al comunicării - modelul behaviorist Ackoff-Miles. Punctul de plecare în acest model este aspirația țintă a destinatarului de informații de a rezolva o problemă specifică. Un destinatar se află într-o „stare direcționată către un scop” dacă se străduiește pentru ceva și are căi alternative de eficiență inegală pentru a atinge scopul. Un mesaj transmis destinatarului este informativ dacă îi schimbă „starea intenționată”.

Deoarece „starea orientată către obiectiv” este caracterizată de o succesiune de acțiuni posibile (alternative), eficacitatea acțiunii și semnificația rezultatului, mesajul transmis destinatarului poate afecta toate cele trei componente în grade diferite. În conformitate cu aceasta, informațiile transmise diferă după tip în „informare”, „instruire” și „motivare”. Astfel, pentru destinatar, valoarea pragmatică a mesajului constă în faptul că acesta îi permite să contureze o strategie de comportament în atingerea scopului prin construirea de răspunsuri la întrebările: ce, cum și de ce să facă la fiecare pas următor? Pentru fiecare tip de informație, modelul behaviorist oferă o măsură proprie, iar valoarea pragmatică generală a informației este determinată în funcție de diferența dintre aceste cantități în „starea orientată către obiectiv” înainte și după schimbarea acesteia într-un nou „scop”. -stare orientată.”