分別介紹了串口通信協(xié)議RS-232、RS-422和RS-485的基本概念和信息
還記得我們?cè)陂_(kāi)始時(shí)丟棄的70%的培訓(xùn)數(shù)據(jù)嗎?結(jié)果表明,如果我們想在Kaggle排行榜上獲得一個(gè)有競(jìng)爭(zhēng)力的得分,這是一個(gè)很糟糕的主意。在70%的數(shù)據(jù)和挑戰(zhàn)的測(cè)試集中,我們的模型還有相當(dāng)多特征沒(méi)有看到。
因此,改變之前只訓(xùn)練單個(gè)模型的方式,讓我們訓(xùn)練幾個(gè)專(zhuān)項(xiàng)網(wǎng)絡(luò),每個(gè)專(zhuān)項(xiàng)網(wǎng)絡(luò)預(yù)測(cè)一組不同的目標(biāo)值。我們將訓(xùn)練一個(gè)只預(yù)測(cè)left_eye_center和right_eye_center的模型,一個(gè)僅用于nose_TIp等等;總的來(lái)說(shuō),我們將有六個(gè)模型。這將允許我們使用完整的訓(xùn)練數(shù)據(jù)集,并希望獲得整體更有競(jìng)爭(zhēng)力的分?jǐn)?shù)。
六個(gè)專(zhuān)項(xiàng)網(wǎng)絡(luò)都將使用完全相同的網(wǎng)絡(luò)架構(gòu)(一種簡(jiǎn)單的方法,不一定是最好的)。因?yàn)橛?xùn)練必須比以前花費(fèi)更長(zhǎng)的時(shí)間,所以讓我們考慮一個(gè)策略,以便我們不必等待max_epochs完成,即使驗(yàn)證錯(cuò)誤停止提高很多。這被稱(chēng)為早期停止,我們將寫(xiě)另一個(gè)on_epoch_finished回調(diào)來(lái)處理。這里的實(shí)現(xiàn):
class EarlyStopping(object):
def __init__(self, paTIence=100):
self.paTIence = paTIence
self.best_valid = np.inf
self.best_valid_epoch = 0
self.best_weights = None
def __call__(self, nn, train_history):
current_valid = train_history[-1]['valid_loss']
current_epoch = train_history[-1]['epoch']
if current_valid < self.best_valid:
self.best_valid = current_valid
self.best_valid_epoch = current_epoch
self.best_weights = nn.get_all_params_values()
elif self.best_valid_epoch + self.patience < current_epoch:
print("Early stopping.")
print("Best valid loss was {:.6f} at epoch {}.".format(
self.best_valid, self.best_valid_epoch))
nn.load_params_from(self.best_weights)
raise StopIteration()
可以看到,在call函數(shù)里面有兩個(gè)分支:第一個(gè)是現(xiàn)在的驗(yàn)證錯(cuò)誤比我們之前看到的要好,第二個(gè)是最好的驗(yàn)證錯(cuò)誤所在的迭代次數(shù)和當(dāng)前迭代次數(shù)的距離已經(jīng)超過(guò)了我們的耐心。在第一個(gè)分支里,我們存下網(wǎng)絡(luò)的權(quán)重:
self.best_weights = nn.get_all_params_values()
第二個(gè)分支里,我們將網(wǎng)絡(luò)的權(quán)重設(shè)置成最優(yōu)的驗(yàn)證錯(cuò)誤時(shí)存下的值,然后發(fā)出一個(gè)StopIteration,告訴NeuralNet我們想要停止訓(xùn)練。
nn.load_params_from(self.best_weights)
raise StopIteration()
讓我們?cè)趎et的定義中更新on_epoch_finished處理程序的列表,并添加EarlyStopping:
net8 = NeuralNet(
# ...
on_epoch_finished=[
AdjustVariable('update_learning_rate', start=0.03, stop=0.0001),
AdjustVariable('update_momentum', start=0.9, stop=0.999),
EarlyStopping(patience=200),
],
# ...
)
到目前為止一切順利,但是如何定義這些專(zhuān)項(xiàng)網(wǎng)絡(luò)進(jìn)行相應(yīng)的預(yù)測(cè)呢?讓我們做一個(gè)列表:
SPECIALIST_SETTINGS = [
dict(
columns=(
'left_eye_center_x', 'left_eye_center_y',
'right_eye_center_x', 'right_eye_center_y',
),
flip_indices=((0, 2), (1, 3)),
),
dict(
columns=(
'nose_tip_x', 'nose_tip_y',
),
flip_indices=(),
),
dict(
columns=(
'mouth_left_corner_x', 'mouth_left_corner_y',
'mouth_right_corner_x', 'mouth_right_corner_y',
'mouth_center_top_lip_x', 'mouth_center_top_lip_y',
),
flip_indices=((0, 2), (1, 3)),
),
dict(
columns=(
'mouth_center_bottom_lip_x',
'mouth_center_bottom_lip_y',
),
flip_indices=(),
),
dict(
columns=(
'left_eye_inner_corner_x', 'left_eye_inner_corner_y',
'right_eye_inner_corner_x', 'right_eye_inner_corner_y',
'left_eye_outer_corner_x', 'left_eye_outer_corner_y',
'right_eye_outer_corner_x', 'right_eye_outer_corner_y',
),
flip_indices=((0, 2), (1, 3), (4, 6), (5, 7)),
),
dict(
columns=(
'left_eyebrow_inner_end_x', 'left_eyebrow_inner_end_y',
'right_eyebrow_inner_end_x', 'right_eyebrow_inner_end_y',
'left_eyebrow_outer_end_x', 'left_eyebrow_outer_end_y',
'right_eyebrow_outer_end_x', 'right_eyebrow_outer_end_y',
),
flip_indices=((0, 2), (1, 3), (4, 6), (5, 7)),
),
]
我們很早前就討論過(guò)在數(shù)據(jù)擴(kuò)充中flip_indices的重要性。在數(shù)據(jù)介紹部分,我們的load_data()函數(shù)也接受一個(gè)可選參數(shù),來(lái)抽取某些列。我們將在用專(zhuān)項(xiàng)網(wǎng)絡(luò)預(yù)測(cè)結(jié)果的fit_specialists()中使用這些特性:
from collections import OrderedDict
from sklearn.base import clone
def fit_specialists():
specialists = OrderedDict()
for setting in SPECIALIST_SETTINGS:
cols = setting['columns']
X, y = load2d(cols=cols)