Pytorch遇到錯誤的解決方法,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

創(chuàng)新互聯(lián)成立與2013年,先為硯山等服務(wù)建站,硯山等地企業(yè),進(jìn)行企業(yè)商務(wù)咨詢服務(wù)。為硯山企業(yè)網(wǎng)站制作PC+手機(jī)+微官網(wǎng)三網(wǎng)同步一站式服務(wù)解決您的所有建站問題。
解決方法:
代碼中添加:
torch.cuda.set_device(0)
(1). 梯度爆炸的原因可以通過梯度裁決解決
GRAD_CLIP = 5loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), GRAD_CLIP)optimizer.step()
(2)testModel和evaluate中需要使用
with torch.no_grad():
(3) 學(xué)習(xí)率調(diào)小一點
在代碼中由三個位置需要進(jìn)行cuda()轉(zhuǎn)換:
模型是否放到了CUDA上model = model.to(device)
輸入數(shù)據(jù)是否放到了CUDA上data = data.to(device)
模型內(nèi)部新建的張量是否放到了CUDA上p = torch.tensor([1]).to(device)
關(guān)于第一條中model = model.to(device)只對model中實例化在__init__()中的函數(shù)有效,如果在forward中實例化并直接使用則不會將model放置到cuda中。
下面給出一個錯誤的代碼:
import torch import torch.nn as nn data = torch.rand(1, 10).cuda() class TestMoule(nn.Module): def __init__(self): super(TestMoule, self).__init__() # self.linear = torch.nn.Linear(10, 2) def forward(self, x): # return self.linear(x) return torch.nn.Linear(10, 2)(x) model = TestMoule() model = model.cuda() print(model(data))
出現(xiàn)上面問題一種情況是某些nn模塊下的函數(shù)傳入了gpu類型的數(shù)據(jù),如下錯誤代碼:
import torch data = torch.randn(1, 10).cuda() layernorm = torch.nn.LayerNorm(10) # layernorm = torch.nn.LayerNorm(10).cuda() re_data = layernorm(data) print(re_data)
分類的類別target與模型輸出softmax的值不是一一對應(yīng)的,如三分類問題:
targets 為 1-3的值,但是softmax計算的值是0-2,因此提示上面的錯誤。
df = pd.read_csv('data/reviews.csv')
def to_sentiment(score):
score = int(score)
if score <= 2:
return 0
elif score == 3:
return 1
else:
return 2
df['sentiment'] = df.score.apply(to_sentiment)看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進(jìn)一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)的支持。
新聞標(biāo)題:Pytorch遇到錯誤的解決方法
當(dāng)前鏈接:http://www.chinadenli.net/article44/piijee.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供標(biāo)簽優(yōu)化、軟件開發(fā)、網(wǎng)頁設(shè)計公司、App開發(fā)、搜索引擎優(yōu)化、網(wǎng)站收錄
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)