Denny Britz

@dennybritz

Into Startups, Deep Learning. Ex-Google Brain, Stanford, Cal. Writing at and .

ಜನವರಿ 2008 ಸಮಯದಲ್ಲಿ ಸೇರಿದ್ದಾರೆ

ಟ್ವೀಟ್‌ಗಳು

ನೀವು @dennybritz ಅವರನ್ನು ತಡೆಹಿಡಿದಿರುವಿರಿ

ಈ ಟ್ವೀಟ್‌ಗಳನ್ನು ವೀಕ್ಷಿಸಲು ನೀವು ಖಚಿತವಾಗಿ ಬಯಸುವಿರಾ? ಟ್ವೀಟ್ ವೀಕ್ಷಣೆಯು @dennybritz ಅವರ ತಡೆತೆರವುಗೊಳಿಸುವುದಿಲ್ಲ

  1. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 22

    "Asymmetric opportunities: Invest in startups Start a company Create a book, podcast, video Create a (software) product Go on many first dates Go to a cocktail party Read a Lindy book Move to a big city Buy Bitcoin Tweet." -

    ರದ್ದುಗೊಳಿಸು
  2. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 22

    The books that kept me up reading in 2018:

    ರದ್ದುಗೊಳಿಸು
  3. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 21

    My thesis "Acquiring Diverse Robot Skills via Maximum Entropy Deep Reinforcement Learning" has been accepted! Below is a 17 second summary. Thanks to my committee , , Mark Mueller and all the collaborators!

    ರದ್ದುಗೊಳಿಸು
  4. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 22

    Not sure whether openreview is having the intended effect. Seeing lots of rejected paper tweets, essentially everyone is forced into the publication-by-tweet model even when the work is not ready. Also powerful rejected authors arguing, trying to have the last word 🙄

    ರದ್ದುಗೊಳಿಸು
  5. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 22

    Machine Learning is being applied to everything lately and it SUCKS. I've seen a dozen *useful* tools come out lately that adopted ML over it's old security innards and it's glorified unicorn glitter, absolutely sparkling but totally ineffective. Stop using ML on solved problems.

    ರದ್ದುಗೊಳಿಸು
  6. ಡಿಸೆಂ 21

    I feel bad for eating something this cute-looking. Japanese students eat it before college entrance exams to have good luck.

    ರದ್ದುಗೊಳಿಸು
  7. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 18

    I'm excited to be teaching courses on Deep Learning, Deep RL, and Human-Centered AI at MIT this January. Lectures will be recorded and are free and open to everyone at

    ರದ್ದುಗೊಳಿಸು
  8. ಡಿಸೆಂ 19

    “Technology come and go, but it has a lot in common. Set priorities right. Invest 80% of your learning time in fundamentals. Leave 20% for frameworks, libraries and tools.”” The same applies to ML. Pick fundamentals over the latest Deep RL algo or xGAN.

    ರದ್ದುಗೊಳಿಸು
  9. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 18

    Wat? Go home google translate, you’re drunk… (the Japanese text does not mention sex lol)

    ರದ್ದುಗೊಳಿಸು
  10. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 16

    Since reading this 6 months ago, I've come to think it's half a dozen of the best paragraphs I've ever read on how to get much, much better at anything: (by )

    ಈ ಥ್ರೆಡ್ ತೋರಿಸಿ
    ರದ್ದುಗೊಳಿಸು
  11. ಡಿಸೆಂ 17

    Thanks everyone for the great suggestions, now I have a huge list of things to listen to. Twitter rocks

    ಈ ಥ್ರೆಡ್ ತೋರಿಸಿ
    ರದ್ದುಗೊಳಿಸು
  12. ಡಿಸೆಂ 17

    Academic incentives are hard. This article makes an interesting suggestion: An open-source software to collaboratively evolve metrics over time:

    ರದ್ದುಗೊಳಿಸು
  13. ಡಿಸೆಂ 17

    I’m trying to find something to do on my commute. Which audiobooks or podcasts are your favorites?

    ಈ ಥ್ರೆಡ್ ತೋರಿಸಿ
    ರದ್ದುಗೊಳಿಸು
  14. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 14

    Hinton: "if you want to get a paper published in [ML] now it's got to have a table in it ... datasets ... methods ... and your method has to look like the best one. ... I don't think that's encouraging people to think about radically new ideas" -

    ರದ್ದುಗೊಳಿಸು
  15. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 14

    How massively parallel can we train deep learning models? Read

    ರದ್ದುಗೊಳಿಸು
  16. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ನವೆಂ 27

    The academic publication process, courtesy of

    ರದ್ದುಗೊಳಿಸು
  17. ಡಿಸೆಂ 15

    In the next couple of years it will become so easy to synthetically generate realistic media (pictures, video, audio, etc) that it will become useless as way to transmit information. It will be useful only for entertainment purposes.

    ರದ್ದುಗೊಳಿಸು
  18. ಡಿಸೆಂ 15

    These results are really amazing (check out the video at ) I’m just a little bit sad that it’s not more difficult to generate our realistic and unique human faces :)

    ರದ್ದುಗೊಳಿಸು
  19. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 13

    All scores substantially advance the state of the art, and are roughly the same (qualitatively) as our original scores (which use a different form of stochasticity during testing: a random # of no-ops vs. sticky actions). Go-Explore can thus handle test-time sticky actions. :-)

    ಈ ಥ್ರೆಡ್ ತೋರಿಸಿ
    ರದ್ದುಗೊಳಿಸು
  20. ಅವರು ಮರುಟ್ವೀಟಿಸಿದ್ದಾರೆ
    ಡಿಸೆಂ 13

    2nd Update: Go-Explore when robustified with sticky actions on Montezuma’s Revenge scores an average of 281,264 (level 18) with domain knowledge (33,836 without). On Pitfall, the average score with domain knowledge is 20,527 with a max of 64,616 (!) All SOTA. Blog updated.

    ಈ ಥ್ರೆಡ್ ತೋರಿಸಿ
    ರದ್ದುಗೊಳಿಸು

ಲೋಡಿಂಗ್ ಸಮಯ ಸ್ವಲ್ಪ ತೆಗೆದುಕೊಳ್ಳುತ್ತಿರುವಂತೆನಿಸುತ್ತದೆ.

Twitter ಸಾಮರ್ಥ್ಯ ಮೀರಿರಬಹುದು ಅಥವಾ ಕ್ಷಣಿಕವಾದ ತೊಂದರೆಯನ್ನು ಅನುಭವಿಸುತ್ತಿರಬಹುದು. ಮತ್ತೆ ಪ್ರಯತ್ನಿಸಿ ಅಥವಾ ಹೆಚ್ಚಿನ ಮಾಹಿತಿಗೆ Twitter ಸ್ಥಿತಿಗೆ ಭೇಟಿ ನೀಡಿ.

    ಇದನ್ನೂ ಸಹ ನೀವು ಇಷ್ಟಪಡಬಹುದು

    ·