Ero sivun ”Informaatio” versioiden välillä

[arvioimaton versio][katsottu versio]
Poistettu sisältö Lisätty sisältö
Velma (keskustelu | muokkaukset)
p →‎Lähteet: väliotsikko
määritelmän tarkennus ja lähde
Rivi 3:
 
Erilaiset informaatioon liittyvät laajennukset ovat olleet merkittävimpiä niiden muutosten joukossa, jotka ovat mahdollistaneet ihmisen muihin eläinlajeihin verrattuna hämmästyttävän leviämisen maapallolla. [[evoluutio|Laji]]- ja [[kulttuurievoluutio]]n tuloksista esimerkiksi [[aivot]], [[kieli]], [[kirjoitustaito]], [[kirjapainotaito]] ja [[tietokone]]et ovat johtaneet tiedon entistä tehokkaampaan käsittelyyn ja tallentamiseen.
 
[[Claude Shannon]]in antoi informaatiolle matemaattisen kaavan, joka määrittelee informaation on viestin epätodennäköisyyden keskiarvologaritmiksi, käytännössä yllättävyyden mitaksi ja jonka yksikkö on [[bitti]].<ref>Gleick, sivu 234</ref> [[Leó Szilárd]] osoitti, että bitti on järjestystä ja se sitoo sen [[energia]]ksi [[entropia]]n käsitteen avulla.<ref>Gleick, sivu 284</ref> Informaatoteoriassa entropia on viestin epävarmuutta.<ref>Gleick, sivu 284</ref>
 
==Ihmisen fyysinen ja mentaalinen tieto==
Rivi 60 ⟶ 62:
 
== Lähteet ==
* {{Kirjaviite | Tekijä = Gleick, James | Nimeke = Informaatio | Vuosi = 2013 (eng. versio 2011)| Luku = | Sivu = | Selite = Suomentaja: Veli-Pekka Ketola| Julkaisupaikka = | Julkaisija = Art House | Tunniste = ISBN 978-951-884-498-6| www = | www-teksti = | Tiedostomuoto = | Viitattu = 9.8.2014 | Kieli = }}
* Lyman, Peter & Varian, Hal: "How Much Information?" University of California, Berkeley. 2003
* {{Kirjaviite | Tekijä=Niiniluoto, Ilkka | Nimeke=Informaatio, tieto ja yhteiskunta: Filosofinen käsiteanalyysi | Selite=5. täydennetty painos (1. painos: Valtion painatuskeskus, 1989) | Julkaisupaikka=Helsinki | Julkaisija=Edita | Vuosi=1996 | Tunniste=ISBN 951-37-1997-9}}
 
 
===Viitteet===