El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
18 me gusta
Recompensa
18
9
Compartir
Comentar
0/400
NFTArchaeologis
· hace12h
Recuerdo que en los primeros días las bases de datos digitales simuladas apenas tenían unos cientos de megabytes, ¡hoy ya son tres terabytes! He sido testigo de toda la historia industrial.
Responder0
SmartMoneyWallet
· hace13h
嘁 El conjunto de datos es tan superficial, básicamente son escenarios de conducción normales, no pueden enfrentar el Evento de Cisne Negro.
Responder0
ForkMonger
· 06-18 17:00
jaja nvidia acaba de externalizar la parte difícil a la computación en la multitud descentralizada... clásico movimiento de web2
Responder0
Layer2Observer
· 06-17 18:07
Desde el punto de vista de la ingeniería, la calidad de los datos también depende de la evidencia empírica.
Responder0
TokenAlchemist
· 06-17 18:06
hmm, los datos sintéticos en la IA... claramente subóptimos en comparación con las transiciones de estado del mundo real, para ser honesto.
Responder0
DaoResearcher
· 06-17 17:56
De acuerdo con los datos experimentales, se infiere de manera rigurosa: tamaño de muestra de video de 80k, con un nivel de confianza superior al 95%.
Responder0
MainnetDelayedAgain
· 06-17 17:54
Han pasado 3 años y 26 días desde la última publicación del conjunto de datos de entrenamiento, ¡finalmente hemos traído la comida a la boca de todos!
Responder0
SmartContractPlumber
· 06-17 17:53
El conjunto de datos es tan grande, ya somos viejos conocidos.
Responder0
LiquidatorFlash
· 06-17 17:44
¿Otra ola de efectos de datos va a explotar? Veamos quién puede soportar más de 3TB.
NVIDIA acaba de soltar un conjunto de datos sintético de conducción de 3TB en Hugging Face
Se utilizaron 80,000 videos generados sintéticamente para entrenar vehículos autónomos.
7 Ejemplo salvaje hasta ahora: