Back

ⓘ Teoria informației este o ramură a matematicii aplicate și a ingineriei electrice care se ocupă cu studierea cuantificării, stocării și comunicării informației. ..




                                               

Blaga Aleksova

Aleksova a absolvit liceul și a studiat la Departamentul de Istorie a Artei a Universității Sfinții Chiril și Metodiu din Skopie. A obținut doctoratul în arheologie medievală în 1958 de la Universitatea din Lublin. În anii 1948–1950 a lucrat în calitate de curator la Muzeul Orașului Skopje, iar apoi, timp de 15 ani, a condus Departamentul de Arheologie Medievală la Muzeul de Arheologie. În perioada 1962–1975 a fost directorul acestui muzeu. În 1971 și 1983 a fost bursieră la Dumbarton Oaks. Între anii 1975–1983 a lucrat la Institutul de Istorie a Artei ca profesor de arheologie creștină me ...

                                               

Număr Heegner

În teoria numerelor, un număr Heegner este un număr pozitiv liber de pătrate d {\displaystyle d} astfel încât corpul pătratic imaginar Q } să aibă numărul clasei 1 {\displaystyle 1}. Echivalent, inelul său al numerelor întregi este un inel factorial. Determinarea acestor numere este un caz special al problemei numărului clasei și ele stau la baza mai multor rezultate remarcabile din teoria numerelor. Conform teoremei Baker–Stark–Heegner există exact nouă numere Heegner: 1, 2, 3, 7, 11, 19, 43, 67, 163 {\displaystyle 1.2.3.7.11.19.43.67.163}. Acest rezultat a fost conjecturat de Carl Friedr ...

                                               

Israel Feldman

Israel Feldman este un matematician și profesor sovietic moldovean și israelian. În 1965, împreună cu Israel Gohberg, a dezvoltat metode de proiecție pentru rezolvarea matricilor Toeplitz cu simboluri continue teorema Baxter-Hochberg-Feldman și până în 1971, împreună au prezentat o teorie cuprinzătoare a metodelor de proiecție pentru operatorii în contururi, inclusiv matricile Toeplitz și analogii lor continui.

                                               

Număr Smith

În teoria numerelor, un număr Smith este un număr compus a cărui sumă a cifrelor într-o bază dată este egală cu suma cifrelor factorilor lor primi. În cazul numerelor care nu sunt libere de pătrate factorizarea se scrie fără exponenți, scriind factorul repetat de câte ori este nevoie. Numerele Smith au fost numite așa de Albert Wilansky de la Universitatea Lehigh, în urma observației că numărul de telefon al cumnatului său, Harold Smith, 493-7775, avea această proprietate: 4937775 = 3 1 ⋅ 5 2 ⋅ 65837 1 {\displaystyle 4937775=3^{1}\cdot 5^{2}\cdot 65837^{1}} unde 4 + 9 + 3 + 7 + 7 + 7 + 5 = ...

                                               

Ignati Kazakov

Ignati Kazakov a fost un medic și om de știință medical sovietic, director al Institutului de Cercetare de Stat pentru Metabolism și Tulburări Endocrine din cadrul Comisariatului Poporului pentru Sănătate al URSS. A fost cunoscut pentru dezvoltarea teoriei și practicii "terapiei cu lizat” ca metodă de întinerire a corpului. A tratat demnitari de rang înalt sovietici, datorită cărui fapt, a avut patroni printre bolșevici proeminenți.

                                               

Lasagna

Lasagne sunt un tip de paste largi, plate, posibil unul dintre cele mai vechi tipuri de paste. Lasagna este un fel de mâncare italiană compus din straturi suprapuse de paste subțiri plate, alternând cu umpluturi precum ragù carne măcinată și sos de roșii și alte legume, brânză care poate include ricotta și parmezan și condimente și mirodenii precum usturoiul, oregano și busuioc. Mâncarea poate fi acoperită cu brânză mozzarella rasă topită. De obicei, pastele fierte sunt așezate cu celelalte ingrediente și apoi coapte la cuptor. Lasagna rezultată este tăiată în porții pătrate.

                                               

Număr rotund

În matematică, un număr rotund este definit drept un număr întreg care nu are niciun factor prim mai mare decât rădăcina sa pătrată. Altă definiție este că este produsul unui număr considerabil de factori relativ mici comparativ cu numerele învecinate, cum ar fi 24 = 2 × 2 × 2 × 3.

                                     

ⓘ Teoria informației

Teoria informației este o ramură a matematicii aplicate și a ingineriei electrice care se ocupă cu studierea cuantificării, stocării și comunicării informației. Aceasta a fost propusă inițial de Claude E. Shannon în anul 1948, pentru a găsi limitele fundamentale ale procesării semnalelor și ale operațiilor din telecomunicații, precum compresia datelor, într-un articol remarcabil, intitulat "O teorie matematică a comunicației”. Apoi, cu timpul, teoria informației a fost extinsă, fiind aplicată în multe alte domenii, inclusiv în neurobiologie, evoluție, genetică, ecologie, termodinamică, calculatoare cuantice, detecția plagiatelor și alte discipline care implică analiza datelor și exploatare de date.

O importantă măsură în teoria informației este entropia informațională, mărime de regulă exprimată prin numărul mediu de biți necesar pentru stocarea sau comunicarea respectivei informații. Intuitiv, entropia cuantifică nivelul de incertitudine implicat de o variabilă aleatoare. De exemplu, o aruncare de monedă va avea entropie informațională mai mică decât o aruncare cu zarul.

Printre aplicațiile teoriei informației se numără compresia datelor fără pierderi de exemplu algoritmul de compresie ZIP, cea cu pierderi de exemplu MP3 și codificarea canalelor codurile detectoare și corectoare de erori. Acest domeniu se află la limita mai multor domenii: matematică, statistică, informatică, fizică, neurobiologie și inginerie electrică. Impactul său a fost crucial pentru succesul misiunilor Voyager, inventarea CD-ului, dezvoltarea Internetului, studiile moderne ale lingvisticii și percepției umane, înțelegerii găurilor negre, și multor altor domenii.

                                     

1. Istoric

Teoria informației a fost inițiată de Ralph Hartley în 1928, pornind de la tratarea teoretică a problemelor de telecomunicații.

Evenimentul care a dus la crearea științei teoriei informației și care a adus-o în atenția publicului a fost publicarea de către Claude Shannon, un matematician și inginer american, a articolului său "O teorie matematică a comunicației” în revista Bell System Technical Journal în iulie și octombrie 1948, articol care a devenit demult o lucrare clasică în domeniu. Shannon și-a propus să studieze din punct de vedere matematic problemele ce apar la transmiterea informațiilor cu ajutorul semnalelor în sistemele comunicațiilor electrice.

Înaintea acestei lucrări la Laboratoarele Bell din Statele Unite fuseseră dezvoltate unele idei limitate legate de teoria informației, toate presupunând evenimente de probabilități egale. Lucrarea din 1924 a lui Harry Nyquist, "Anumiți factori care afectează viteza telegrafului”, conține o secțiune teoretică ce cuantifică "informația" și "viteza liniei" pe care ea poate fi transmisă de către un sistem de comunicații, dând relația W = K log ⁡ m {\displaystyle W=K\log m}, unde W este viteza de transmisie a informației, m este numărul de nivele diferite de tensiune dintre care se poate alege la fiecare tact de timp, iar K este o constantă. Lucrarea lui Ralph Hartley din 1928, Transmisia informației, folosea cuvântul informație drept cantitate măsurabilă, care reflecta capacitatea receptorului de a distinge o secvență de simboluri de o alta, cuantificând astfel informația ca H = log ⁡ S n = n log ⁡ S {\displaystyle H=\log S^{n}=n\log S}, unde S era numărul de simboluri posibile, iar n numărul de simboluri dintr-o transmisie. Unitatea naturală de informație era deci cifra zecimală, numită mai târziu hartley în cinstea autorului. Și britanicul Alan Turing a folosit în 1940-1942 idei similare în analiza statistică, conducând la spargerea cifrurilor mașinii germane de cifrat Enigma în timpul celui de-al Doilea Război Mondial.

Mare parte din matematica din spatele teoriei informației cu evenimente de probabilități diferite a fost dezvoltată pentru domeniul termodinamicii de către Ludwig Boltzmann și J. Willard Gibbs.

În lucrarea revoluționară a lui Shannon, elaborată în cea mai mare parte la Laboratoarele Bell până în 1944, el a introdus pentru prima oară un model calitativ și cantitativ al comunicației ca proces statistic ce stă la baza teoriei informației, deschizând cu propoziția:

"Problema fundamentală a comunicației este aceea a reproducerii într-un punct, fie exact, fie aproximativ, a unui mesaj ales dintr-un alt punct.”

În această lucrare au fost definite următoarele idei:

  • Rezultatul practic al legii Shannon-Hartley pentru capacitatea unui canal gaussian;
  • Bitul - o nouă modalitate de a vedea unitatea fundamentală de informație.
  • Entropia informațională și redundanța unei surse, și relevanța acesteia, prin teorema codificării sursei;
  • Informația mutuală și capacitatea unui canal de comunicație afectat de zgomot, inclusiv promisiunea comunicației fără zgomote dată de Teorema codificării canalului zgomotos;

Contribuții la dezvoltarea teoriei informației au adus Norbert Wiener din 1948, Alexander Hincin ru 1953, Andrei Kolmogorov 1956.

                                     

2. Legături externe

  • Societatea IEEE pentru Teoria Informației ITSOC a IEEE și pagina acesteia Monografii, studii și analize ale ITSOC en.
  • Lambert F. L. 1999, "Cărți bătute, mese vraiște și dormitoare dezordonate - exemple de creșteri ale entropiei? Aiurea!”, Jurnalul de educație chimică en.
                                     
  • Teoria integrării informației este o teorie generală elaborată de Norman H. Anderson pentru a explica cum pot oamenii să îmbine diverse comportamente
  • Nu confundați cu Teoria informației Ingineria informațiilor Știința datelor, sau biblioteconomie. Știința informației este un domeniu preocupat în principal
  • cunoașterii Teoria deschiderilor Teoria evoluționistă Teoria falsificării Teoria grafurilor Teoria informației Teoria jocurilor Teoria lui Roesler Teoria măsurii
  • cum sunt: teoria informației teoria jocurilor strategice, teoria deciziei, cercetarea operațională, teoria ecuațiilor diferențiale, teoria probabilităților
  • fundamentală a domeniului teoriei informației Acesta a fost apoi publicat în anul 1949 sub forma unei cărți intitulate Teoria matematică a comunicației
  • de evaluat este cantitatea de informație emisă și recepționată. Inițial, termenul a fost definit în Teoria informației ca fiind o mărime ce exprimă incertitudinea
  • timpurile, Citadel Press, 2004 Teoria conspirației, 20 aprilie 2008, Calin Hentea, Flacăra Maraton Descoperă: Teoria conspirației, 30 aprilie 2009, Descoperă
  • legate de teoria relativității Cum a confirmat NASA Teoria relativității a lui Einstein VIDEO, 7 mai 2011, Ana Bâtcă, Evenimentul zilei Teoriile lui Einstein
  • implicate discipline, în teoria jocurilor, sunt matematica și economia, dar și alte științe sociale și comportamentale. Teoria jocurilor a fost creata
  • Teoria coardelor este un concept ipotetic din fizică. Termenul provine din denumirea engleză String Theory care ar însemna Teoria coardelor Deoarece