No joo, mut vähän kuitenkin kysymys siitä, kenelle kaikille päätyy huonosti. Jenkkien politiikka on kuitenkin sen verran tasaista, että tasapainon heiluminen saattasi aiheuttaa yllättävän isoja vaikutuksia.
Millä tavalla se Teslaan sijoittaminen tukee puoluetta?
Jos uskookin Teslaan sijoituksena, se ei tarkoita että olisi Muskin kanssa kaikesta poliittisesti samaa mieltä.
Twitterissä Elon Musk ja Tesla influensserit elävät symbioosissa. Musk palkitsee oikeat twiitit näkyvyydellä, josta saa rahallisen korvauksen. Väärä twiitti tarkoittaa pahimmillaan unfollow from Elon.
Epstein on muuten kummasti noussut esille twitterissä juuri nyt. Musk lähtee haastamaan Trumpia?
Tuo Epstein varmaan trendaa kun DOJ/FBI juuri kertoi ettei ollut mitään client-listaa ja hemmo teki itsemurhan joten syy taitaa olla tuo eikä Muskin toimet.
Niin taitaa kuitenkin olla taustalla Muskin huutelu jonka vuoksi tuo “tutkimus” julkaistiin nyt jotta saadaan vähän huhuja alas, en toki usko sekuntiakaan että kaikkea olisi vielä kerrottu.
Ää, ei. Muski väitti Trumpin löytyvän listalta ja FBI:n tutkimuksien mukaan koko listaa ei ole olemassakaan.
Tämä trendaa nyt siksi, että Trump hiekottaa Muskin sanomisia FBI:n avustuksella. On muistettava, että FBI:n johdossa on nyt Trumpin mies.
En ota kantaa siihen, onko listaa olemassa vai ei. Nostan vain esille sen faktan, että Muskin väitteitä kontrattiin FBI:n toimesta.
@Kesa86
Saas nähdä mitä tulevaisuus tuo tullessaan, mutta tesla sijoittajat saa siitä osansa. Se on naiivia ajatella, että Muskin politiikka ja Tesla olisi jollain lailla irrallaan toisistaan. Oikeissa pörssiyhtiöissä Muski olisi saanut potkut jo aikoja sitten CEO:n tontilta. Nyt koko yhtiö joutuu kantamaan seurauksia siitä, että hallitus on vain paperitiikeri.
Ja lisään vielä sen, että Muskin yhtiöiden tulevaisuuden valtiolliset ja kunnalliset sopimukset näyttävät nyt sekä jenkeissä että euroopassa erittäin haastavilta. Koskee erityisesti SpaceX ja starlinkkiä, mutta myös Teslaa.
Edit:
Sille lienee syynsä, miksi Muskin luottomies lähti just äsken menemään.
Se on selvää, että Muskin politisoituminen on vaikuttanut Teslan kurssiin.
Mutta kysymys kuului: miten Tesla sijoittaja (esim minä) tukee Muskin uutta puoluetta, kuten väitit?
Tämähän on päivänselvä asia: Isoin(?) osa Muskin omaisuudesta on sidottu Teslan osakkeisiin ja se on riippuvainen osakkeen arvostustasosta. Jokainen osakkeenomistaja on tässä leikissä mukana.
Se on nyt se ja sama mitä sinä itse mietit, raha tekee työn sun puolesta. Nyt iso kysymys on se, että riittääkö instikkasijoittajilla into lähteä mukaan näin syvälle poliittiseen peliin. On syytä epäillä, että ei riitä koska heillä on taloudellinen vastuu omien asiakkaidensa suuntaan.
Samalla logiikalla voin sanoa, että tuet Muskin politiikkaa, koska et shorttaa Teslaa (oletan?).
Moderaattorit taas varmasti innoissaan keskustelun tasosta. Itse toivoisin, ettei tällä foorumilla nähtäisi tuollaisia “linkki ja nauruhymiöitä” -driveby-postauksia. Ettei menisi ihan Kauppalehden foorumiksi.
Mallin koulutus tapahtuu Teslan AI-klusterissa, ei lidarilla.
Mallia ei kalibroida lidarilla.
Mallin validointi = ajetaan FSD päällä ja katsotaan toimiiko. Ei tarvita lidaria.
HD karttoja lidarilla kyllä voi tehdä, mutta eikö FSD:n nimenomaan pitänyt toimia ilman niitä?
Phil Beisel väänsi sinulle rautalankaa X:ssä . Suosittelen katsomaan myös aiemmin linkkaamani pätkän Karpathyn selostuksesta.
Yhteenveto
LiDAR: Tesla vs Waymo
Tesla and LiDAR
Tesla uses LiDAR during development as a ground truth system to train and validate its monocular camera-based vision system*. While the production vehicles rely solely on cameras, LiDAR provides precise depth data in training to calibrate the neural network’s distance and size estimates.
Consider the following scenario: a set of boxes of varying sizes are placed at different distances from a moving reference object. Suppose one box is positioned 20 meters away, and another at 15 meters. The reference object is equipped with a forward-facing monocular camera and is moving toward the boxes.
As the camera captures a sequence of frames, a neural network processes these images to estimate the boxes’ sizes and distances (location). By analyzing pixel changes across multiple frames—leveraging motion parallax and perspective shift—the network infers 3D geometry from what is essentially 2D image data. For instance, it may estimate a box’s dimensions by analyzing its bounding box in the image and combining that with inferred depth, though this process is complicated by perspective distortion and the absence of absolute scale in a single image.
To resolve this, Tesla uses LiDAR during the training phase. The LiDAR system generates a dense point cloud with accurate depth readings for all visible surfaces, providing the precise 3D structure of the scene. This depth data serves as ground truth to train the neural network, teaching it how image sequences correspond to real-world geometry. If the vision system estimates a box’s location at, say, 19–21 meters, LiDAR’s exact 20.05 meter measurement can be used to adjust the prediction during training—minimizing the error between the vision-based estimate and actual distance.
Once trained, the neural network can accurately estimate object size and location using only camera inputs, without the need for LiDAR in production. Though simplified here, this example illustrates how Tesla uses LiDAR-based ground truth during development to supervise and calibrate its camera-only perception system. This approach, as described in US20200265247A1, enables reliable 3D understanding from monocular camera sequences through learned depth inference and temporal consistency.
Waymo and LiDAR
Waymo relies on LiDAR in its production autonomous driving system for map matching, enabling precise localization on pre-mapped roads. This is a core requirement—Waymo vehicles can only operate in areas that have been mapped in advance, a major limitation given the millions of unmapped road miles globally.
To create these maps, Waymo drives LiDAR-equipped vehicles along selected routes to collect dense 3D point-cloud data. This data is processed into high-definition (HD) maps encoding static features like lane markings, curbs, traffic signs, and other fixed landmarks. In operation, onboard LiDAR generates real-time point clouds, which are matched against the HD map to pinpoint the vehicle’s exact location—even when GPS is unreliable. This robust localization is essential to Waymo’s system but inherently limits it to pre-mapped environments.
Maintaining these HD maps is an ongoing task. Production vehicles collect real-time LiDAR data and detect “deltas”—discrepancies such as new signage or missing road features—which trigger updates. These changes are processed (often automatically), verified when needed, and pushed across the fleet to keep maps current. But this only works within already mapped areas; Waymo vehicles can’t map or navigate roads they haven’t pre-scanned.
Map matching is just one piece of the stack. HD maps don’t include dynamic elements like vehicles or pedestrians, so Waymo uses a multi-sensor suite—LiDAR, cameras, and radar—to perceive and classify moving objects in real time.
Despite refinements like automated map updates and cheaper LiDAR, the system doesn’t scale well. Mapping every drivable road is resource-heavy, and most roads—especially outside urban cores—remain unmapped. Waymo vehicles cannot operate beyond these geofenced zones, and edge cases like construction or outdated maps can still trip them up. Real-world reports have highlighted failures at map boundaries or during unexpected environmental changes.
In short, Waymo’s LiDAR-based localization system enables accurate navigation within pre-mapped environments but is fundamentally constrained by its reliance on HD maps. While the architecture supports controlled deployment in constrained domains, it lacks the flexibility and scalability of systems that aim to operate anywhere without prior mapping. Its real-world reliability remains bounded by the completeness and freshness of its maps, raising questions about long-term robustness outside ideal conditions.
Summary:
Tesla
•LiDAR used for calibration/validation in the training phase (providing ground truth)
•LiDAR is not used in production
•Drive anywhere system (any roadway)
•Mimics human driving behavior, trained on good driving data
Waymo
•LiDAR used to ‘map match’
•Requires pre-mapped areas, geofencing zones
•Maps must be updated often
• Multi-sensor system using other sensors for complete perception
- Tesla’s reliance on LiDAR is shrinking daily, however.

Summary:
Tesla
•LiDAR used for calibration/validation in the training phase (providing ground truth)
…
Tässä myöskin selitys aikaisempaan kyselyyn…

Tiedättekö, onko kamera parempi kuin ihmisen silmä auringon häikäisyä ajatellen?
Teslan kameran kuvakäsittely ei varmasti ole (videolatenssi ja optiikka huomioiden) ihmisen silmän tasolla tai järjestelmäkameran still-kuvan veroinen.
Kuitenkin LIDAR-validaation ja Muskin mainostamaa “photon countingia” kehittämällä saadaan mallia väännettyä paremmaksi aurinkohäikäisyssä, varjoissa ja sumussa. Monet robottitaksiajelut onnistuivat Austinin matalan auringon paistaessa, mutta Kim Javalla tuli yhdessä taksiajossa reipas haamujarrutus auringon paistaessa suoraan kameraan. LIDAR-validointi on varmaan siis paikallaan, mutta kysymys toki on, saadaanko “photon counting” riittävän hyväksi.

LIDAR-validointi on varmaan siis paikallaan, mutta kysymys toki on, saadaanko “photon counting” riittävän hyväksi.
Ottaen huomioon HW4:n kamerat jotka on kaikella todennäköisyydellä ihan perus CMOS sensoreilla niin tämä Muskin hypettämä photon counting on aika vaikea saada toimimaan tehokkaasti. Mutta jää tämäkin nähtäväksi niinkuin niin moni muu Muskin hypetyksistä.