Word abonnee en neem Beursduivel Premium
Rode planeet als pijlen grid met hoorntjes Beursduivel
Aandeel

TomTom NL0013332471

Laatste koers (eur)

5,620
  • Verschill

    -0,105 -1,83%
  • Volume

    419.532 Gem. (3M) 329,3K
  • Bied

    5,610  
  • Laat

    5,830  
+ Toevoegen aan watchlist

3D maps essential for autonomous driving?

139 Posts
Pagina: «« 1 2 3 4 5 6 7 »» | Laatste | Omlaag ↓
  1. [verwijderd] 26 februari 2016 11:52
    quote:

    *Justin* schreef op 26 februari 2016 11:41:

    Ik ben niet jaloers op de wijze zoals de ceo van mobileye een concept op papier dat nog heel veel haken en ogen en complexiteit met zich meebrengt verkoopt aan aandeelhouders alsof het een commercieel product is. Er is geen enkel vooruitzicht dat ze er een pepernoot aan gaan verdienen. En als insiders hun aandelen verkopen (zie citron bericht) is ook een alarmbel. Ik heb liever 80% substance en 20% promise in plaats van andersom. Uiteraard moet er wel enige fantasie en mogelijkheden zijn.
    Ze gaan -zoals ik het lees- primair veel duiten verdienen aan de leveringen van die EyeQ4-chip. Want daar gaan ze er in ieder geval heel veel van verkopen. Hoe substantieel het mapping deel zal zijn valt nog te bezien. Maar nogmaals: nu ff geen tijd om daar alles over bij te lezen.

    Dus wellicht ga ik er nog anders tegenaan kijken als ik alles echt goed gelezen heb.
  2. [verwijderd] 26 februari 2016 14:03
    Ze zullen wel hardware sales weten te realiseren ze hebben een ambitieus doel van 1,1 miljard omzet in 2020. Maar voor REM verwachten ze geen omzetbijdrage. En bij hardware sales heb je minder schaalvoordelen. Ook zal er bij marktgroei vanuit andere hoeken op mobileye gepressed gaan worden zoals velodyne en bosch en ook de prijzen van sensoren en chips zullen lager worden. Ik moet dus nog maar zien of ze iets weten te maken van REM. Het is geen finaal product zoals road dna. Road dna is af en heeft 98% van de tijd correcte precieze localisatie. Er zal dus sowieso iets moeten komen om in die overige 2% van de tijd de exacte positie te weten. Dat is het hele verhaal van technologieen die complementair aan elkaar moeten zijn..
  3. Chameleon 26 februari 2016 16:32
    quote:

    *Justin* schreef op 26 februari 2016 14:03:

    Ze zullen wel hardware sales weten te realiseren ze hebben een ambitieus doel van 1,1 miljard omzet in 2020. Maar voor REM verwachten ze geen omzetbijdrage. En bij hardware sales heb je minder schaalvoordelen. Ook zal er bij marktgroei vanuit andere hoeken op mobileye gepressed gaan worden zoals velodyne en bosch en ook de prijzen van sensoren en chips zullen lager worden. Ik moet dus nog maar zien of ze iets weten te maken van REM. Het is geen finaal product zoals road dna. Road dna is af en heeft 98% van de tijd correcte precieze localisatie. Er zal dus sowieso iets moeten komen om in die overige 2% van de tijd de exacte positie te weten. Dat is het hele verhaal van technologieen die complementair aan elkaar moeten zijn..
    Ik vraag me af of het nog steeds 98% is, dat was volgens mij een getal van begin 2015 toen het product nog niet officieel gepresenteerd was, of heb ik iets gemist daarna? Maw, zou het niet al veel nauwkeuriger kunnen zijn?

  4. Leeuw 007 26 februari 2016 16:43
    quote:

    Dokus_ schreef op 23 februari 2016 15:07:

    Hoe vaker en harder iemand roept dat hij een "vakman" is hoe meer je moet oppassen...
    Als je jezelf niets verbeeld.Dan ben je ook niets.
  5. [verwijderd] 26 februari 2016 17:41
    quote:

    *Justin* schreef op 26 februari 2016 14:03:

    Ze zullen wel hardware sales weten te realiseren ze hebben een ambitieus doel van 1,1 miljard omzet in 2020. Maar voor REM verwachten ze geen omzetbijdrage. En bij hardware sales heb je minder schaalvoordelen. Ook zal er bij marktgroei vanuit andere hoeken op mobileye gepressed gaan worden zoals velodyne en bosch en ook de prijzen van sensoren en chips zullen lager worden. Ik moet dus nog maar zien of ze iets weten te maken van REM. Het is geen finaal product zoals road dna. Road dna is af en heeft 98% van de tijd correcte precieze localisatie. Er zal dus sowieso iets moeten komen om in die overige 2% van de tijd de exacte positie te weten. Dat is het hele verhaal van technologieen die complementair aan elkaar moeten zijn..
    Nou is het natuurlijk niet voor niets dat RoadDNA in bepaalde gebieden niet voldoende onderscheid kan maken om met zekerheid te kunnen zeggen waar de auto is. Er zijn dan zó weinig onderscheidende kenmerken in het landschap dat het gewoon niet te meten is en twee 'foto's' vergelijken van twee totaal verschillende locaties levert geen enkel verschil op.

    Maar als ik 'complementair' hoor, dan denk ik: ze vullen elkaar aan. En in dit geval denk ik niet dat die vlieger op gaat, want ook REM zal voor dezelfde problemen komen te staan als RoadDNA. Ook REM kan in die gebieden niet voldoende onderscheidende landmarks ontdekken om te kunnen zeggen: nu ben ik hier, en net was ik nog daar. Kortom, er is nóg een Mobile EI van Columbus nodig om die hiaten op te vullen.
  6. [verwijderd] 26 februari 2016 18:42
    Ik zie het precies andersom, Hik.

    TomTom noemt als voordeel van haar systeem dat het het meest robuust is. Dat klopt ook, want iedere plek heeft om zich heen een unieke puntenwolk. Niet 1 landmark, zoals mobileye, maar de hele omgeving (gecomprimeerd streetview).

    Als Mobileye met landmarks per 100 meter werkt, en een van de landmarks is een lantaarnpaal (autosensoren schatten afstand tot lantaarnpaal en weten daardoor waar de auto is). Op het moment dat de paal weg is, blijft road DNA gewoon werken (want gebaseerd op een totaalbeeld) terwijl dat bij Mobileye REM niet zo is.

    Nu gaf de CEO van Mobileye een steek onder water naar TT, door te stellen dat Road DNA niet crowdsourced is, dus niet de beste oplossing in zijn ogen. Ten eerste is niet bekend of het niet crowdsourced is. TT heeft allerlei dingen lopen om sensor en cameradata te verwerken. Maar crowdsourcing is ook minder belangrijk bij Road DNA vergeleken bij mobileye REM, omdat een plek pas onherkenbaar wordt op het moment dat je er een bom op gooit. Terwijl het concept van Mobileye crowdsourcing vereist, omdat er veel minder informatie is om op terug te vallen.

    Ik denk dus dat TomTom Road DNA ALTIJD werkt, behalve als er echt een volledig nieuwe weg ergens is aangelegd, die nog nooit door een TomTom camerawagen is gereden. Dat komt denk ik aardig overeen met de stelling van TomTom vorig jaar dat Road DNA in 98% van de gevallen goed haar werk deed.

    In 2% van de gevallen reed de auto dus in een gebied dat nieuw was. In dat geval kent TomTom de nieuwe wegen wel (want op basis van probe data zijn die zo te tekenen) maar ontbreekt nog het Road DNA beeld. Daarom noemt TomTom ook haar 3D maps in combinatie met Road DNA de meest robuuste oplossing. Die 3D map kan de laatste 2% opvangen. En en misschien ook Mobileye of een opzet gelijk aan die van mobileye om laatste gaten te dichten.

    De steek onder water van Mobileye was denk ik ook defensief. Indien autofabrikanten ervoor kiezen, dan is Mobileye 's aanbod niet nodig of hooguit een aanvulling op. En Road DNA is gewoon verkrijgbaar commercieel en voor REM geldt dat niet...
  7. [verwijderd] 26 februari 2016 19:44
    quote:

    *Justin* schreef op 26 februari 2016 18:42:

    In 2% van de gevallen reed de auto dus in een gebied dat nieuw was. In dat geval kent TomTom de nieuwe wegen wel (want op basis van probe data zijn die zo te tekenen) maar ontbreekt nog het Road DNA beeld. Daarom noemt TomTom ook haar 3D maps in combinatie met Road DNA de meest robuuste oplossing. Die 3D map kan de laatste 2% opvangen. En en misschien ook Mobileye of een opzet gelijk aan die van mobileye om laatste gaten te dichten.

    Hierin zit een inconsistentie van mijn kant. Als er nog niet gereden is, is er ook geen 3D map. Maar kan er wel een reguliere map zijn (op basis van probe data) aangevuld met info van sensoren (crowdsourced). In dat geval zou dus een mobileye achtige techniek nodig (kan ook van tomtom zelf zijn, want zij kijken ook naar die methode) om de laatste 2% er uit te krijgen. Uitspraak van mobileye CEO was dan wel weer raak. Het eerste gedeelte is niet moeilijk, maar voor de laatste perfectie scheiden de jongens zich van de mannen. Of iets in die trant. Om de technologie dus helemaal sluitend te krijgen (bij nieuwe wegen of extreme weersomstandigheden) daar gaat het om. Bij helder blauwe lucht op een test traject werkt het allemaal wel. Maar dat is niet genoeg.
  8. Chameleon 26 februari 2016 19:55
    quote:

    *Justin* schreef op 26 februari 2016 18:42:

    Ik zie het precies andersom, Hik.

    TomTom noemt als voordeel van haar systeem dat het het meest robuust is. Dat klopt ook, want iedere plek heeft om zich heen een unieke puntenwolk. Niet 1 landmark, zoals mobileye, maar de hele omgeving (gecomprimeerd streetview).

    Als Mobileye met landmarks per 100 meter werkt, en een van de landmarks is een lantaarnpaal (autosensoren schatten afstand tot lantaarnpaal en weten daardoor waar de auto is). Op het moment dat de paal weg is, blijft road DNA gewoon werken (want gebaseerd op een totaalbeeld) terwijl dat bij Mobileye REM niet zo is.

    Nu gaf de CEO van Mobileye een steek onder water naar TT, door te stellen dat Road DNA niet crowdsourced is, dus niet de beste oplossing in zijn ogen. Ten eerste is niet bekend of het niet crowdsourced is. TT heeft allerlei dingen lopen om sensor en cameradata te verwerken. Maar crowdsourcing is ook minder belangrijk bij Road DNA vergeleken bij mobileye REM, omdat een plek pas onherkenbaar wordt op het moment dat je er een bom op gooit. Terwijl het concept van Mobileye crowdsourcing vereist, omdat er veel minder informatie is om op terug te vallen.

    Ik denk dus dat TomTom Road DNA ALTIJD werkt, behalve als er echt een volledig nieuwe weg ergens is aangelegd, die nog nooit door een TomTom camerawagen is gereden. Dat komt denk ik aardig overeen met de stelling van TomTom vorig jaar dat Road DNA in 98% van de gevallen goed haar werk deed.

    In 2% van de gevallen reed de auto dus in een gebied dat nieuw was. In dat geval kent TomTom de nieuwe wegen wel (want op basis van probe data zijn die zo te tekenen) maar ontbreekt nog het Road DNA beeld. Daarom noemt TomTom ook haar 3D maps in combinatie met Road DNA de meest robuuste oplossing. Die 3D map kan de laatste 2% opvangen. En en misschien ook Mobileye of een opzet gelijk aan die van mobileye om laatste gaten te dichten.

    De steek onder water van Mobileye was denk ik ook defensief. Indien autofabrikanten ervoor kiezen, dan is Mobileye 's aanbod niet nodig of hooguit een aanvulling op. En Road DNA is gewoon verkrijgbaar commercieel en voor REM geldt dat niet...
    @Justin, tav het onderstreepte gedeelte: is dit een assumptie? Ik ga er nu namelijk van uit dat er bij de combinatie TT HAD map + RoadDNA nog steeds een 2% gap is (te weinig onderscheidende puntenwolk oid). Jij lijkt te stellen dat die 2% gaat over niet 3d in kaart gebrachte wegen. Ik vraag mij af of dit zo is. Vraag is overigens wel of die 2% nog steeds accuraat is of dat dit wellicht al (substantieel) verbeterd is.

    Ten aanzien van de vraag in hoeverre crowd sourcing relevant is:
    duidelijk is dat het maken van HAD maps en daarmee RoadDNA momenteel een dure exercitie is, daarnaast dienen de kaarten up to date te worden gehouden, wederom een kostbare exercitie. Mijn gevoel is dat crowd source data (het liefst met alleen camera's en zonder lidar) voor het maken van, maar in ieder geval voor het onderhouden van HAD maps en RoadDNA op termijn de enige manier is om de kosten onder controle te kunnen houden. Vraag is hoe ver TT daarmee is.

  9. Leeuw 007 26 februari 2016 20:01
    quote:

    *Justin* schreef op 17 februari 2016 10:31:

    Met Google translate

    HERE

    We zien het duidelijk het niet op deze manier, niet alleen omdat we zijn kaart makers ;-) maar veel mensen in de industrie het met ons eens. Het punt is ... zeker, sensoren kunnen preciezer worden en "zien" daardoor meer in de diepte, maar in welke mate? Een kaart heeft vrijwel een oneindige diepte.

    Maar het is niet alleen dat, het gaat om de context. Elementair voorbeeld: een sensor kan je vertellen dat er ruimte aan de linkerkant en je kan het voertuig inhalen voor je. Maar ... is het legaal om dit te doen? Is er een potentieel gevaarlijke bocht vooruit? Een sensor kan je dat niet vertellen, slechts een kaart kan dat.

    Ik heb geen mening over Mobileye heb, heb ik definitief respect voor hun werk en ik kan zeggen dat de sensoren van fundamenteel belang zijn voor autonome rijden. Ik denk gewoon dat kaarten zijn ook van fundamenteel belang. Soms, bij HIER, zeggen we dat de kaart is een extra sensor. Ik hoop dat mijn uitleg antwoord op uw vraag.

    Ja, het doet. Ik heb altijd gedacht dat de kaarten en sensoren zijn complementaire diensten zijn . Ook denk dat in bepaalde omstandigheden (zoals sneeuw) misschien de kaart kan compenseren voor wat een sensor niet ziet of op een punt is juist weer de kaart onjuist en kunnen de sensoren dat compenseren.

    precies zoals je zegt;-) je kunt zeggen dat ze elkaar aanvullen
    Goed zo Justin, dat je toch naar mijn geluisterd hebt.

    Zeer nuttig. Een laatste vraag, als dat mag. Ik hoor sommige OEM's over het maken van hun eigen merkgebonden kaarten. Ik geloof dat het toyota. Is dat alleen beperkt tot hun eigen testbanen en op beperkte schaal of is het mogelijk om te zien nieuwe kaartenmakers ontstaan?

    Ik hoorde over het in kaart brengen inspanningen van Toyota op de CES, maar ik heb gewoon nog niet gekeken naar de details. Ik kan alleen maar zeggen dat kaarten maken is heel intensief: het kost een heleboel mensen, veel geld en veel tijd om de hele wereld in kaart te brengen.

  10. [verwijderd] 26 februari 2016 20:04
    quote:

    *Justin* schreef op 26 februari 2016 19:44:

    [...]

    Hierin zit een inconsistentie van mijn kant. Als er nog niet gereden is, is er ook geen 3D map. Maar kan er wel een reguliere map zijn (op basis van probe data) aangevuld met info van sensoren (crowdsourced). In dat geval zou dus een mobileye achtige techniek nodig (kan ook van tomtom zelf zijn, want zij kijken ook naar die methode) om de laatste 2% er uit te krijgen. Uitspraak van mobileye CEO was dan wel weer raak. Het eerste gedeelte is niet moeilijk, maar voor de laatste perfectie scheiden de jongens zich van de mannen. Of iets in die trant. Om de technologie dus helemaal sluitend te krijgen (bij nieuwe wegen of extreme weersomstandigheden) daar gaat het om. Bij helder blauwe lucht op een test traject werkt het allemaal wel. Maar dat is niet genoeg.
    Dat vetgedrukte ben ik wel met hem eens. Hij zegt daarmee eigenlijk ook dat ze al zó lang bezig zijn (en daar mag je Tom2 ook toe rekenen), dat dat een behoorlijke voorsprong heeft opgeleverd t.o.v. startups die denken dat zji het kunstje ook wel even kunnen klaren.

    Ik denk dat de witte vlekken op één of andere manier wel opgelost worden. Ten eerste zijn het allemaal van hun kant uit ook veronderstellingen wat de werkelijke percentages betreft. Het zal voornamelijk in de buitengebieden gaan spelen, waar je vaak al meer dan genoeg hebt aan de lane-guidance zoals ADAS dat al voorschrijft. Zoals je zegt: nog lang niet alles is in HAD+RoadDNA beschikbaar en we beginnen eerst maar eens met ADAS en dan hebben we nog tijd genoeg om het hele zelfrijdende plaatje in te kleuren. Wellicht bieden opvolgers van de huidige communicatienetwerken dan al zoveel snelheid dat er met nauwkeurige tijdcodering in combinatie met superGPS nóg simpeler localisatie toegepast kan worden. Het is me allemaal een beetje teveel koffiedik aan het worden. De eerste echte RoadDNA- of REM toepassing zou welkom zijn en moet het nu maar eens eerst gaan bewijzen. Proof Of Concept is hier meer dan welkom.
    En dan nog, wij hebben het hier voor het gemak maar steeds over de maps, maar de echte uitdagingen zitten natuurlijk in de kunstmatige intelligentie die de auto's nodig zullen hebben om op echt álle omstandigheden die zich (gecombineerd) voor kunnen doen een antwoord te hebben en te vertalen naar rijinstructies. See you in a decade....
  11. Chameleon 26 februari 2016 20:10
    quote:

    Hik schreef op 26 februari 2016 20:04:

    [...]

    Dat vetgedrukte ben ik wel met hem eens. Hij zegt daarmee eigenlijk ook dat ze al zó lang bezig zijn (en daar mag je Tom2 ook toe rekenen), dat dat een behoorlijke voorsprong heeft opgeleverd t.o.v. startups die denken dat zji het kunstje ook wel even kunnen klaren.

    Ik denk dat de witte vlekken op één of andere manier wel opgelost worden. Ten eerste zijn het allemaal van hun kant uit ook veronderstellingen wat de werkelijke percentages betreft. Het zal voornamelijk in de buitengebieden gaan spelen, waar je vaak al meer dan genoeg hebt aan de lane-guidance zoals ADAS dat al voorschrijft. Zoals je zegt: nog lang niet alles is in HAD+RoadDNA beschikbaar en we beginnen eerst maar eens met ADAS en dan hebben we nog tijd genoeg om het hele zelfrijdende plaatje in te kleuren. Wellicht bieden opvolgers van de huidige communicatienetwerken dan al zoveel snelheid dat er met nauwkeurige tijdcodering in combinatie met superGPS nóg simpeler localisatie toegepast kan worden. Het is me allemaal een beetje teveel koffiedik aan het worden. De eerste echte RoadDNA- of REM toepassing zou welkom zijn en moet het nu maar eens eerst gaan bewijzen. Proof Of Concept is hier meer dan welkom.
    En dan nog, wij hebben het hier voor het gemak maar steeds over de maps, maar de echte uitdagingen zitten natuurlijk in de kunstmatige intelligentie die de auto's nodig zullen hebben om op echt álle omstandigheden die zich (gecombineerd) voor kunnen doen een antwoord te hebben en te vertalen naar rijinstructies. See you in a decade....
    Helemaal eens, wat we nu graag zsm zouden zien is een concrete ADAS toepassing op basis van TT HAD maps. Dat zou een enorme boost geven. De rest volgt.
  12. [verwijderd] 26 februari 2016 20:19
    quote:

    Chameleon schreef op 26 februari 2016 19:55:

    [...]

    @Justin, tav het onderstreepte gedeelte: is dit een assumptie? Ik ga er nu namelijk van uit dat er bij de combinatie TT HAD map + RoadDNA nog steeds een 2% gap is (te weinig onderscheidende puntenwolk oid). Jij lijkt te stellen dat die 2% gaat over niet 3d in kaart gebrachte wegen. Ik vraag mij af of dit zo is. Vraag is overigens wel of die 2% nog steeds accuraat is of dat dit wellicht al (substantieel) verbeterd is.

    Ten aanzien van de vraag in hoeverre crowd sourcing relevant is:
    duidelijk is dat het maken van HAD maps en daarmee RoadDNA momenteel een dure exercitie is, daarnaast dienen de kaarten up to date te worden gehouden, wederom een kostbare exercitie. Mijn gevoel is dat crowd source data (het liefst met alleen camera's en zonder lidar) voor het maken van, maar in ieder geval voor het onderhouden van HAD maps en RoadDNA op termijn de enige manier is om de kosten onder controle te kunnen houden. Vraag is hoe ver TT daarmee is.

    Grotendeels eens. Wat betreft RoadDNA: ze hebben duidelijk gezegd dat de bron een 3D point-cloud (Lidar) is. De zelfrijdende auto kan wel een referentiebeeld maken met de gewone camera's om te vergelijken met het lokale RoadDNA beeld, maar het genereren van RoadDNA gebeurt met Lidar zoals die in een mapping-vehicle zit.
    Dat maakt het dus niet mogelijk om RoadDNA te updaten met gewone camerabeelden vanuit client-auto's zónder Lidar. Maar wie zegt dat ook dit in de toekomst niet veranderd kan worden. Camera's worden ook steeds beter en er bestaan algoritmes om met gewone camera's ook afstanden te kunnen meten (zij het dan dat de afstand nog geringer is dan met Lidar).
  13. Chameleon 26 februari 2016 20:27
    quote:

    Hik schreef op 26 februari 2016 20:19:

    [...]

    Grotendeels eens. Wat betreft RoadDNA: ze hebben duidelijk gezegd dat de bron een 3D point-cloud (Lidar) is. De zelfrijdende auto kan wel een referentiebeeld maken met de gewone camera's om te vergelijken met het lokale RoadDNA beeld, maar het genereren van RoadDNA gebeurt met Lidar zoals die in een mapping-vehicle zit.
    Dat maakt het dus niet mogelijk om RoadDNA te updaten met gewone camerabeelden vanuit client-auto's zónder Lidar. Maar wie zegt dat ook dit in de toekomst niet veranderd kan worden. Camera's worden ook steeds beter en er bestaan algoritmes om met gewone camera's ook afstanden te kunnen meten (zij het dan dat de afstand nog geringer is dan met Lidar).
    Eens. Iets heel anders: zou het niet mogelijk zijn om een drone met een paar lidars uit te rusten en maps te laten maken? Of zou de invalshoek van de beelden dan niet goed zijn. Lijkt mij goedkoper dan een auto + chauffeur.
  14. [verwijderd] 26 februari 2016 20:42
    quote:

    Chameleon schreef op 26 februari 2016 20:27:

    [...]

    Eens. Iets heel anders: zou het niet mogelijk zijn om een drone met een paar lidars uit te rusten en maps te laten maken? Of zou de invalshoek van de beelden dan niet goed zijn. Lijkt mij goedkoper dan een auto + chauffeur.
    Als een drone op dezelfde hoogte vliegt als een auto rijdt krijg je in ieder geval beelden waar je wat aan hebt omdat je ze kunt reproduceren in de auto. Maar je kan denk ik niet zomaar 'Unmanned Aerial Vehicles' als probe gebruiken. Ze roteren ook en bewegen wat meer in de Z-richting (hoogte van de drone t.o.v. het wegoppervlak), wat de Lidar op een auto niet zal doen. Daar zal de Lidar-sensor een vaste hoogte bezitten. Dit soort dingen zal het onnauwkeuriger maken waardoor er ook weer meer correctie nodig is en ik vermoed dat je ook hier altijd iemand in de buurt moet hebben die een oogje in het zeil houdt. Toekomstmuziek?
    Ook mapping met satellietbeelden wordt gedaan trouwens. AND doet dit ook. Er leiden meer wegen naar Rome.
  15. [verwijderd] 26 februari 2016 22:01
    quote:

    Chameleon schreef op 26 februari 2016 19:55:

    [...]

    @Justin, tav het onderstreepte gedeelte: is dit een assumptie? Ik ga er nu namelijk van uit dat er bij de combinatie TT HAD map + RoadDNA nog steeds een 2% gap is (te weinig onderscheidende puntenwolk oid). Jij lijkt te stellen dat die 2% gaat over niet 3d in kaart gebrachte wegen. Ik vraag mij af of dit zo is. Vraag is overigens wel of die 2% nog steeds accuraat is of dat dit wellicht al (substantieel) verbeterd is.

    Ten aanzien van de vraag in hoeverre crowd sourcing relevant is:
    duidelijk is dat het maken van HAD maps en daarmee RoadDNA momenteel een dure exercitie is, daarnaast dienen de kaarten up to date te worden gehouden, wederom een kostbare exercitie. Mijn gevoel is dat crowd source data (het liefst met alleen camera's en zonder lidar) voor het maken van, maar in ieder geval voor het onderhouden van HAD maps en RoadDNA op termijn de enige manier is om de kosten onder controle te kunnen houden. Vraag is hoe ver TT daarmee is.


    Tav jouw eerste alinea. Ik had mezelf al gecorrigeerd.

    Wat de tweede alinea betreft. Het staat buiten kijf dat crowdsourcing essentieel is. TomTom doet het al heel lang, begon met mapshare en daarna probe gebaseerd waarbij de huge aantallen van Apple helpen. En nu komen camera's, lidar etc daarbij. Het realtime maps platform is hier speciaal voor ontwikkeld; een ontwikkeling die in 2011 startte. (Wat dus veel zegt over hun vooruitziende blik; wij waren in 2011 met heel andere dingen bezig)

    TomTom's doel is om de komende jaren zoveel te automatiseren, dat het vrijwel niet meer nodig is om scouts met een ipad op pad te sturen of camerawagens.

    Dat neemt echter niet weg dat het altijd een hybride vorm zal blijven. Ik denk dat het onderhoud van bepaalde weg attributen volledig crowdsourced kan. TomTom kan geautomatiseerd de meestvoorkomende verkeersborden lezen; dus maximum snelheden en dat soort dingen kunnen crowdsourced. Rijrichtingen ook: de probe data geven vanzelf aan of er ineens auto's de andere kant op rijden.

    Ik denk echter dat de camera wagen niet geheel weg te denken is. Nu is die om de 3D maps eenmalig te maken op alle wegen. Daarna denk ik dat het onderhoud van bestaande kaarten crowdsourced kan en compleet nieuwe wegen met camerawagens.

    Daarnaast kan ik me voorstellen dat je in geval van twijfel (geen eenduidige data) op een belangrijk en complex punt even opnieuw een wagen laat langskomen. En dat je de camerawagens gebruikt ter controle (steekproef) hoe goed het crowdsourcing werkt om de kaarten goed te houden.

    En de streetview/roaddna beelden moeten wellicht ook af en toe ververst; maar dat kan bijvoorbeeld eens in de zeven jaar misschien eens gebeuren.

    Ik ben geen kenner/expert hierin dus zeg alleen wat me logisch lijkt.

    Om op chameleon in te gaan lijken drones me nuttig voor realtime verkenning. Bijvoorbeeld: er is ergens een ongeluk gebeurd, verkennen wat er precies gebeurd is. En ook files bekijken. Voor een tomtom lijkt me dit lastig om op wereldschaal te organiseren; lijkt me meer iets voor lokale overheden (megacities die hun eigen traffic control room hebben) en bij snelwegen de rijksdiensten. Misschien kan TT er wel een rol in spelen bij een aantal grote pilot steden, ze hebben zelf ook grote traffic room.
  16. [verwijderd] 27 februari 2016 10:15
    Ik heb nog wat zitten bijlezen in die MobilEye CC (zie link in de post van Hik). Zeer interessant, zeker als die prof Amnon Shashua aan het woord is. Hij benadrukt open architectuur en samenwerking vanuit meerdere competenties.

    Een heel opvallende passage vind ik:

    One thing that is new in our activity is all the cloud services, so this is something that we're building now into our activity throughout the 2016. All the rest is kind of garden-variety activity of increasing our manpower, both in terms of software and algorithms and also people who annotate images.

    So this is the normal kind of growth that we have been accustomed to for the past decade and we learned how to live with it. So there's going to be a growth in that area. The only new thing is all these cloud services infrastructures both in terms of processing power, in terms of data, in terms of communication, this is something that is new for us, but we believe we'll be able to master it throughout 2016.


    Ik lees hier dat hij in 1 jaar denkt te gaan van geen fabriek naar wel een fabriek. Mij lijkt complementariteit/coöperatie tussen MobilEye en de TomTom fabriek minder vergezocht dan je zou zeggen aan de hand van de toon van de discussies. Het blijft mij fascineren dat die nieuwe REM-partners nu juist de bedrijven lijken die wel eens nauw aan het samenwerken zouden kunnen zijn met TomTom voor het op korte termijn realiseren van highway cruise functionaliteit.

    Shashua: "And you really need to maintain an open architecture in order to be a player there as well." (en hij geeft GEEN commentaar op een vraag naar een lock-in!)

    Verder zie ik veel interesse bij de vragenstellers (en Shashua als hij over dispruption praat) voor Lidar als alternatief voor camera's, wellicht in de vorm van een "fusion-product". Zouden Bosch/TomTom wellicht naar zo'n camera/Lidar fusion aan het kijken zijn, hoewel ze daar op achterstand lijken te staan?

    Andere gedachten? Het is een knap lastige puzzle om te ontcijferen.
  17. [verwijderd] 27 februari 2016 10:55
    quote:

    xynix schreef op 27 februari 2016 10:15:

    Ik heb nog wat zitten bijlezen in die MobilEye CC (zie link in de post van Hik). Zeer interessant, zeker als die prof Amnon Shashua aan het woord is. Hij benadrukt open architectuur en samenwerking vanuit meerdere competenties.

    Een heel opvallende passage vind ik:

    One thing that is new in our activity is all the cloud services, so this is something that we're building now into our activity throughout the 2016. All the rest is kind of garden-variety activity of increasing our manpower, both in terms of software and algorithms and also people who annotate images.

    So this is the normal kind of growth that we have been accustomed to for the past decade and we learned how to live with it. So there's going to be a growth in that area. The only new thing is all these cloud services infrastructures both in terms of processing power, in terms of data, in terms of communication, this is something that is new for us, but we believe we'll be able to master it throughout 2016.


    Ik lees hier dat hij in 1 jaar denkt te gaan van geen fabriek naar wel een fabriek. Mij lijkt complementariteit/coöperatie tussen MobilEye en de TomTom fabriek minder vergezocht dan je zou zeggen aan de hand van de toon van de discussies. Het blijft mij fascineren dat die nieuwe REM-partners nu juist de bedrijven lijken die wel eens nauw aan het samenwerken zouden kunnen zijn met TomTom voor het op korte termijn realiseren van highway cruise functionaliteit.

    Shashua: "And you really need to maintain an open architecture in order to be a player there as well." (en hij geeft GEEN commentaar op een vraag naar een lock-in!)

    Verder zie ik veel interesse bij de vragenstellers (en Shashua als hij over dispruption praat) voor Lidar als alternatief voor camera's, wellicht in de vorm van een "fusion-product". Zouden Bosch/TomTom wellicht naar zo'n camera/Lidar fusion aan het kijken zijn, hoewel ze daar op achterstand lijken te staan?

    Andere gedachten? Het is een knap lastige puzzle om te ontcijferen.
    Ik denk dat jij de man nobeler inschat dan ik. Hij gaat niet voor een stúkje van de cake, maar de hele cake inclusief topping! Ik denk dat hij een enorm ego heeft en eerst alle wegen zelf wil bewandelen voordat hij bij anderen aanklopt. Hij heeft ook niet voor een bestaand platform of een open architectuur gekozen. Nee, het moest een eigen ontwikkelde chip worden. De EyeQ waar we inmiddels al bij de vierde generatie zijn aanbeland. Je maakt mij niet wijs dat dit ook niet op een bestaande chip van NVidia had gepast. Ze zijn ook met een camerafabrikant bezig om een nieuw type HD, multifocus camera te maken. Ik geloof echt niet in samenwerking met Tom2 of Bosch van hun kant uit bezien.
    Normaal gesproken manouvreert een fabrikant zich op deze manier naar de periferie van de markt omdat er geen gebruik gemaakt wordt van bestaande technologie of standaarden. Maar hier zie je bijna het omgekeerde: hij verwerft juist macht (samenwerkingen/deals) in het centrum, met belangrijke partnerships. Daarom denk ik dat hij echt een goed product en in ieder geval een goed verhaal heeft naar de autobouwers toe. Laten we wel wezen: ze realiseren natuurlijk ook behoorlijk met de Tesla, die drijft echt op hun technologie. Die Shashua komt ook in lezingen ontzettend schrander over. Ik heb alle footage van de CES bekeken en gelezen waar hij bij betrokken was en hij vertelt nooit een afgedraaid vooraf ingestudeerd verhaal. Het is echt zijn eigen visie en die van het bedrijf om het te doen zoals ze het nu doen. En dat geloof in eigen kunnen plús nu al deels het bewijs leveren dat je het kunt werpt toch zijn vruchten af.

    OVerigens: waar je leest in jouw citaat: "people who annotate images", daar wordt dus echt mee bedoeld: mensen die een foto voor de neus krijgen en dan uit een rij voorbeelden aan de computer vertellen wat zij zien. Dus ook een min of meer vaag voorrangsbord waar het zicht wat belemmerd wordt door regen of sneeuw daar wordt aan de computer geleerd: ook dit is een voorrangsbord. Als je miljoenen van dit soort voorbeelden aan de computer geeft dan weet deze het na een tijdje zelf ook wel. Daar zijn ze dus echt met heel veel menskracht mee bezig.
  18. [verwijderd] 27 februari 2016 12:34
    Er zijn een aantal benchmarks voor machine learning algoritmes, een bekende is de MNIST handwriting dataset. Er zijn al algoritmes die deze beter classificeren (herkennen) dan mensen!

    Kaarten hoeven echt niet gedetailleerd te zijn, alles wordt straks "ingevuld" door algoritmes, on the fly!

    rodrigob.github.io/are_we_there_yet/b...

  19. [verwijderd] 27 februari 2016 12:46
    [quote alias=Slainte id=9204950 date=201602271234]
    Er zijn een aantal benchmarks voor machine learning algoritmes, een bekende is de MNIST handwriting dataset. Er zijn al algoritmes die deze beter classificeren (herkennen) dan mensen!

    Kaarten hoeven echt niet gedetailleerd te zijn, alles wordt straks "ingevuld" door algoritmes, on the fly!

    rodrigob.github.io/are_we_there_yet/b...

    [/quote
    Dat moet die kapitein van de Costa Concordia ook gedacht hebben...ik doe wel even wat on the fly. Doe ik niemand een vlieg kwaad mee.
  20. [verwijderd] 27 februari 2016 14:11
    Hik, ik denk dat qua 'sensing' mobileye een goede headstart heeft gemaakt. Ze waren (een van de) eersten die met camera's de ogen van de auto zijn.

    Hun grote uitdaging wordt om voorsprong te behouden en grotere concurrenten te weren. Ze zijn nu van de pioniersfase in een commerciele fase (adas), dus komen er veel kapers op de kust met diepere zakken en veel meer engineers; ik noem een Bosch. Ze willen in 2020 een omzet bereiken van 1,1 miljard, terwijl het nu enkele honderden miljoenen zijn. Ik denk niet dat die ruimte ze zonder slag of stoot geboden wordt.

    Mobileye's omzet en R&D budgetten zijn beperkt (kleiner dan TT) en die uitgaven zullen zich grotendeels op hardware richten (camera's en chips, hun core business) en niet op content. Ook zal de prijs van sensoren steeds lager worden. Misschien overleven ze die competitie, net zoals tomtom haar plek heeft gevonden tussen Google, de Harman's etc.

    Waar ik hen respecteer om hun sensing capabilities heb ik het idee dat die ceo als hij over mapping praat veel te makkelijk doet alsof het al bestaat, terwijl het alleen op papier bestaat. En alsof het makkelijk is.

    Hij heeft een papieren vliegtuigje gevouwen en presenteert zich als de CEO van Boeing.
139 Posts
Pagina: «« 1 2 3 4 5 6 7 »» | Laatste |Omhoog ↑

Neem deel aan de discussie

Word nu gratis lid van Beursduivel.be

Al abonnee? Log in

Macro & Bedrijfsagenda

  1. 01 mei

    1. Japan inkoopmanagersindex diensten april (def)
    2. China inkoopmanagersindex industrie (Caixin) april
    3. NL omzet detailhandel maart
    4. Wolters Kluwer Q1-cijfers
    5. Beurzen Euronext gesloten vanwege Dag van de Arbeid
    6. Chinese beurzen gesloten
    7. VK inkoopmanagersindex diensten april (def)
    8. GlaxoSmithKline Q1-cijfers
    9. VS hypotheekaanvragen - wekelijks
    10. Kraft Heinz Q1-cijfers
de volitaliteit verwacht indicator betekend: Market moving event/hoge(re) volatiliteit verwacht