在這篇文章中,將教大家實(shí)現(xiàn)一個(gè)網(wǎng)頁(yè)應(yīng)用程序,該程序可以接收狗的圖片,然后輸出其品種,其準(zhǔn)確率超過(guò)80%!
我們將使用深度學(xué)習(xí)來(lái)訓(xùn)練一個(gè)識(shí)別狗品種的模型,數(shù)據(jù)集是狗圖像與他們的品種信息,通過(guò)學(xué)習(xí)圖像的特征來(lái)區(qū)分狗的品種。數(shù)據(jù)分析數(shù)據(jù)集可以從這里下載(https://s3-us-west-1.a(chǎn)mazonaws.com/udacity-aind/dog-project/dogImages.zip)。以下是關(guān)于數(shù)據(jù)的一些介紹:犬種總數(shù):133狗圖片總數(shù):8351(訓(xùn)練集:6680,驗(yàn)證集:835,測(cè)試集:836)最受歡迎的品種:阿拉斯加對(duì)應(yīng)96個(gè)樣本,博德牧羊犬對(duì)應(yīng)93個(gè)樣本按圖片數(shù)量排序的前30個(gè)品種如下:
我們還可以在這里看到一些狗的圖片和它們的品種:
數(shù)據(jù)預(yù)處理我們會(huì)把每個(gè)圖像作為一個(gè)numpy數(shù)組進(jìn)行加載,并將它們的大小調(diào)整為224x224,這是大多數(shù)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)接受圖像的默認(rèn)大小,另外我們?yōu)閳D像的數(shù)量添加為另一個(gè)維度。from keras.preprocessing import image from tqdm import tqdm
def path_to_tensor(img_path): '''將給定路徑下的圖像轉(zhuǎn)換為張量''' img = image.load_img(img_path, target_size=(224, 224)) x = image.img_to_array(img) return np.expand_dims(x, axis=0)
def paths_to_tensor(img_paths): '''將給定路徑中的所有圖像轉(zhuǎn)換為張量''' list_of_tensors = [path_to_tensor(img_path) for img_path in tqdm(img_paths)] return np.vstack(list_of_tensors)最后,我們使用ImageDataGenerator對(duì)圖像進(jìn)行動(dòng)態(tài)縮放和增強(qiáng)train_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255, horizontal_flip=True, vertical_flip=True, rotation_range=20)
valid_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255.)
test_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255.)
train_generator = train_datagen.flow(train_tensors, train_targets, batch_size=32)valid_generator = train_datagen.flow(valid_tensors, valid_targets, batch_size=32)test_generator = train_datagen.flow(test_tensors, test_targets, batch_size=32)CNN我們將在預(yù)處理數(shù)據(jù)集上從頭開始訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN),如下所示:model = tf.keras.models.Sequential([ tf.keras.layers.Conv2D(16, (3,3), activation='relu', input_shape=(224, 224, 3)), tf.keras.layers.MaxPooling2D(2, 2), tf.keras.layers.Conv2D(32, (3,3), activation='relu'), tf.keras.layers.MaxPooling2D(2,2), tf.keras.layers.Conv2D(64, (3,3), activation='relu'), tf.keras.layers.MaxPooling2D(2,2), tf.keras.layers.Conv2D(128, (3,3), activation='relu'), tf.keras.layers.MaxPooling2D(2,2), tf.keras.layers.Conv2D(256, (3,3), activation='relu'), tf.keras.layers.MaxPooling2D(2,2), tf.keras.layers.Flatten(), tf.keras.layers.Dense(2048, activation='softmax'), tf.keras.layers.Dropout(0.5), tf.keras.layers.Dense(1024, activation='softmax'), tf.keras.layers.Dropout(0.5), tf.keras.layers.Dense(133, activation='softmax')])
model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])
checkpointer = tf.keras.callbacks.ModelCheckpoint(filepath='../saved_models/weights_best_custom.hdf5', verbose=1, save_best_only=True)
12下一頁(yè)>(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )