1. Datainsamling:samla råmaterialet
* satellitbilder: Detta är det grundläggande lagret. Satellitbilder med hög upplösning ger en bred, topp-down-utsikt över världen. Dessa bilder fångas av satelliter som kretsar runt jorden, vilket ger en omfattande visuell skiva. Upplösningen har förbättrats avsevärt under åren, vilket möjliggör mer detaljer.
* flygfotografering: Flygplan eller drönare utrustade med specialiserade kameror flyger över specifika områden och fångar överlappande bilder från olika vinklar. Detta ger högre upplösning och mer detaljer än satellitbilder.
* Street View Cars &Trekker: Dessa fordon utrustade med matriser av kameror, lidar (lätt detektering och olika) sensorer och GPS-enheter kör längs vägar och stigar, och fångar 360-graders panoramas och detaljerade 3D-punktmoln i gatunivåmiljöer. Trekkeren är en ryggsäcksversion för områden som är otillgängliga för bilar.
* Användarinlämnade foton: I vissa fall utnyttjar Google användarbidragna foton för att fylla luckor eller förbättra kvaliteten på 3D-modeller, även om dessa data vanligtvis är noggrant kontrollerade och integrerade.
2. 3D -rekonstruktion:Förvandla bilder till modeller
* fotogrammetri: Detta är kärntekniken för att skapa 3D -modeller från 2D -bilder.
* Funktionsdetektering: Programvaran identifierar nyckelfunktioner (hörn, kanter, strukturer) i överlappande bilder.
* Funktionsmatchning: Den matchar sedan dessa funktioner över flera bilder och förstår hur samma punkt i den verkliga världen framträder ur olika perspektiv.
* Struktur från rörelse (SFM): Med hjälp av de matchade funktionerna och kända kamerapositioner (från GPS och andra sensorer) rekonstruerar algoritmen scenens 3D -struktur och uppskattar kamerans position och orientering för varje bild. Detta skapar ett gles punktmoln som representerar scenen.
* tät rekonstruktion: Det glesa punktmolnet används sedan som en grund för att skapa ett tätare, mer detaljerat punktmoln. Detta fyller i luckorna och skapar en mer fullständig 3D -representation.
* mesh Generation: Slutligen omvandlas punktmolnet till ett 3D -nät, som är ett nätverk av sammankopplade trianglar som bildar ytan på 3D -modellen.
* lidar (ljusdetektering och varierande):
* laserskanning: Lidarsensorer avger laserpulser och mäter den tid det tar för att ljuset ska återvända. Detta möjliggör mycket exakta mätningar av avståndet till objekt.
* Point Cloud Generation: LIDAR -data används för att skapa ett tätt 3D -punktmoln som representerar miljön. Detta är särskilt värdefullt för att skapa exakta 3D -modeller av terräng och byggnader och är mer exakt än fotogrammetri för komplexa former.
* fusion med bilder: LIDAR -data kombineras ofta med bilder för att lägga till färg och struktur till 3D -modellerna, vilket skapar ett mer realistiskt utseende.
* Maskininlärning och AI: Google använder maskininlärning för att:
* Förbättra bildbehandlingen: Förbättra bildkvaliteten, minska bruset och korrigera för snedvridningar.
* Objektigenkänning: Identifiera och klassificera föremål i bilderna (t.ex. träd, byggnader, bilar, människor). Detta möjliggör automatiserad märkning och kommentarer av 3D -modellerna.
* gapfyllning: Fyll i saknade data eller områden där 3D -rekonstruktionen är ofullständig.
* Strukturförbättring: Generera realistiska strukturer och detaljer för 3D -modellerna.
* Procedurgenerering: Skapa 3D-modeller av objekt som är svåra att fånga direkt (t.ex. träd, vegetation) med hjälp av algoritmer som genererar realistiska utseende representationer.
3. Databehandling och optimering:
* georeferencing: All data är exakt georeferens, vilket innebär att de är i linje med ett globalt koordinatsystem. Detta säkerställer att 3D -modellerna är exakt placerade på jorden.
* Data Fusion: Data från olika källor (satellitbilder, flygfotografering, Street View, Lidar) kombineras och integreras för att skapa en komplett och konsekvent 3D -modell.
* Förenkling och optimering: 3D -modellerna är ofta förenklade och optimerade för att minska sin filstorlek och förbättra prestanda, samtidigt som de upprätthåller en hög detaljnivå. Detta är avgörande för att strömma data effektivt via Internet.
* texturering: Bilderna "projiceras" på 3D -nätet för att ge det realistiska färg och struktur.
4. Visa och visualisering:
* kaklat rendering: 3D -världen är uppdelad i brickor, vilket möjliggör effektiv strömning och återgivning av endast de områden som för närvarande är synliga för användaren.
* detaljnivå (LOD): Olika detaljnivåer används för objekt beroende på deras avstånd från användaren. Avlägsna föremål återges med lägre detalj, medan närmare föremål görs med högre detaljer. Detta hjälper till att förbättra prestandan och minska mängden data som måste strömmas.
* realistiska renderingstekniker: Tekniker som skuggning, belysning och skuggor används för att skapa en mer realistisk och uppslukande upplevelse.
Nyckel tekniska framsteg som möjliggör Googles 3D -världar:
* Ökad datorkraft: Massiv datorkraft i datacenter är avgörande för att bearbeta de stora mängder data som är involverade i 3D -rekonstruktion.
* Framsteg inom datorvision: Förbättrade algoritmer för funktionsdetektering, matchning och 3D -rekonstruktion.
* Maskininlärning: Automatiserad bildbehandling, objektigenkänning och gapfyllning.
* Sensorer med hög upplösning: Avancerade kameror och lidarsensorer som fångar mer detaljerade och exakta data.
* Effektiv datalagring och strömning: Skalbar infrastruktur för lagring och strömning av de enorma mängderna 3D -data.
Sammanfattningsvis är Googles 3D -värld ett resultat av en komplex och sofistikerad process som kombinerar avancerad teknik och tekniker, inklusive satellitbilder, flygfotografering, gatuvy, LIDAR, fotogrammetri, maskininlärning och effektiv databehandling och strömning. Det är en kontinuerlig process för datainsamling, bearbetning och förbättring, som ständigt utvecklas för att ge användarna den mest exakta och detaljerade representationen av jorden.