成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能開發(fā)者 正文
    發(fā)私信給汪思穎
    發(fā)送

    0

    Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

    本文作者: 汪思穎 2017-12-07 08:58
    導語:經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

    雷鋒網(wǎng) AI 科技評論按,2017 年初,F(xiàn)acebook 在機器學習和科學計算工具 Torch 的基礎上,針對 Python 語言發(fā)布了一個全新的機器學習工具包 PyTorch。一經(jīng)發(fā)布,這款開源工具包就受到廣泛關注和討論,經(jīng)過幾個月的發(fā)展,目前 PyTorch 已經(jīng)成為從業(yè)者最重要的研發(fā)工具之一。經(jīng)過將近一年的發(fā)展,日前,迎來了 PyTorch 0.3.0 版本。

    Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

    根據(jù)官方文檔的介紹,此次增加了多個函數(shù)和功能,多方面的性能均實現(xiàn)提升。

    重大變更

    0.3 版本中刪掉了 Variable.reinforce() 等隨機函數(shù),因為它們的功能有限,并且會影響到性能。設置隨機函數(shù)的初衷是為了避免采樣值的 book-keeping,在實際中,由于各種各樣的原因,用戶的代碼中仍然會包括 book-keeping。他們引入了 torch.distributions 包來代替隨機函數(shù)。

    之前的代碼如下:

    probs = policy_network(state)

    action = probs.multinomial()

    next_state, reward = env.step(action)

    action.reinforce(reward)

    action.backward()

    現(xiàn)在的代碼如下:

    probs = policy_network(state)

    # NOTE: categorical is equivalent to what used to be called multinomial

    m = torch.distributions.Categorical(probs)

    action = m.sample()

    next_state, reward = env.step(action)

    loss = -m.log_prob(action) * reward

    loss.backward()

    新的功能

    1、目前,有些損失函數(shù)能直接計算 mini-batch 中每個 sample 的損失值。

    2、構建了一個 in-built Profiler,能對模型進行瓶頸分析,這個 Profiler 同時支持 CPU 和 CUDA 模型。

    更多信息可以參見 http://pytorch.org/docs/0.3.0/autograd.html#profiler

    3、增加 Higher order gradients 模塊,支持如下層:

    • ConvTranspose, AvgPool1d, AvgPool2d, LPPool2d, AvgPool3d, MaxPool1d, MaxPool2d, AdaptiveMaxPool, AdaptiveAvgPool, FractionalMaxPool2d, MaxUnpool1d, MaxUnpool2d, nn.Upsample, ReplicationPad2d, ReplicationPad3d, ReflectionPad2d

    • PReLU, HardTanh, L1Loss, SoftSign, ELU, RReLU, Hardshrink, Softplus, SoftShrink, LogSigmoid, Softmin, GLU

    • MSELoss, SmoothL1Loss, KLDivLoss, HingeEmbeddingLoss, SoftMarginLoss, MarginRankingLoss, CrossEntropyLoss

    • DataParallel

    4、優(yōu)化器

    • optim.SparseAdam:能實現(xiàn)適用于稀疏張量的簡單亞當算法

    • 優(yōu)化器中增加了 add_param_group 函數(shù),能在構建好的優(yōu)化器中增加新的參數(shù)組。

    除此之外,還增加了新的張量函數(shù)和功能,在新版本中,能通過 ONNX 將模型遷移到其他框架上。另外,在加速方面,重寫 gpu kernel 之后,softmax 和 log_softmax 的速度能實現(xiàn) 4-256 倍的提升;在分布式 AllReduce 中,能實現(xiàn) 2.5-3 倍的性能提升;torch.norm 函數(shù)的 backward 能實現(xiàn) 1.5 倍的加速;pack_padded_sequence 的性能也有提升。

    雷鋒網(wǎng) AI 科技評論編譯整理,具體的介紹可以參加說明文檔,里面有詳細說明。地址如下:https://github.com/pytorch/pytorch/releases/tag/v0.3.0

    雷鋒網(wǎng) AI 科技評論后續(xù)也將持續(xù)關注PyTorch的更新。

    雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

    Pytorch 0.3.0 發(fā)布,實現(xiàn)多方面提速,增加對ONNX支持

    分享:
    相關文章

    編輯

    關注AI學術,例如論文
    當月熱門文章
    最新文章
    請?zhí)顚懮暾埲速Y料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說