Ett ämne som har återkommit som diskussion under lång tid.
Det finns många ”teorier om allt” och de flesta av dem måste vara fel. Enligt min teori är allt du ser omkring dig ett neuralt nätverk och för att bevisa det fel är allt som behövs att hitta ett fenomen som inte kan modelleras med ett neuralt nätverk. Men om du tänker på det är det en mycket svår uppgift främst för att vi vet så lite om hur neuronnätverken beter sig och hur maskininlärningen faktiskt fungerar. Det var därför jag först försökte utveckla en teori om maskininlärning.
Det jag säger är väldigt enkelt. Det finns strukturer (eller subnät) i det mikroskopiska neurala nätverket som är mer stabila och det finns andra strukturer som är mindre stabila. De mer stabila strukturerna skulle överleva utvecklingen och den mindre stabila strukturen skulle utrotas. På de minsta skalorna förväntar jag mig att det naturliga urvalet skulle ge vissa strukturer med mycket låg komplexitet, såsom nervkedjor, men på större skalor skulle strukturerna vara mer komplicerade. Jag ser ingen anledning till varför denna process bör begränsas till en viss längdskala och därför är påståendet att allt vi ser runt omkring oss (t.ex. partiklar, atomer, celler, observatörer etc.) är resultatet av det naturliga urvalet.
zerohedge.com
Physicist: The Entire Universe Might Be A Neural Network (Not A 'Simulation')