2020年12月22日 星期二

[超譯] pyimagesearch 的 人臉識別

 # [超譯] pyimagesearch 的 人臉識別

來源:https://www.pyimagesearch.com/2018/06/18/face-recognition-with-opencv-python-and-deep-learning/


原文作者有提供原始碼,索取需要購買訂閱專案。


## 前言


今天這個貼文會使用到


* opencv

* python

* deep learning


深度學習式的人臉識別有(1)高準確度(2)快速這兩個特點,可以用在靜態影像與動態影像。


## 用 opencv, python, deep learning 做人臉識別


在這個教程裡,你們會學到如何用 opencv, python, deep learning 做人臉識別。


我們會簡單地討論深度學習式的人臉識別如何運作,包含 "deep metric learning" 的概念。


接下來會安裝所需要的函式庫。


最後會實作適用於靜態影像與動態影像的人臉識別。


最後可發現,我們實作的人臉識別有即時處理的能力。


## 了解深度學習式人臉識別


所以,深度學習與人臉識別是如何做到的?


秘密是 "deep metric learning" 的技術。


如果你曾用過其他的深度學習的技術,一般的做法是:


* 接受一個影像

* 輸出一個 分類/標籤 給那個影像


然而,deep metric learning 不一樣。


deep metric learning 會輸出一個實數的特徵向量。


dlib 這個臉部識別網路,會輸出 128-d 的特徵向量(也就是一串數字有 128 個),該特徵向量就是用來數量化臉部特徵。訓練這個網路使用名叫 triplets 的方式來達成:


* 找三張照片,A人有兩張,

* B人有一張,調整權重讓 B人之間的兩張照片的特徵向量比較近,A人與 B人之間的特徵向量比較遠。


套用到實際例子,有三張照片,一張是 Chad Smith,兩張是 Will Ferrell。


我們的網路會數量化這些臉,為每個臉建立出 128-d 的特徵向量( embedding、quantification)


接下來,一般的想法是調整我們神經網路的權重,讓兩張 Will Ferrell 比較靠近,與 Chad Smith 比較遠。


我們的人臉識別的網路架構是取自 ResNet-34,來自 [Deep Residual Learning for Image Recognition](https://arxiv.org/abs/1512.03385) 作者是 He et al.,但是層數比較少,filter 也減半。


網路是由 [Davis King](https://www.pyimagesearch.com/2017/03/13/an-interview-with-davis-king-creator-of-the-dlib-toolkit/) 所訓練,他的資料集約有 3百萬張影像,在 [Labeled Faces in the Wild](http://vis-www.cs.umass.edu/lfw/) 相較於其他現代手法有達到 99.38% 的準確度。


Davis King ([dlib](http://dlib.net/)作者) 與 [Adam Geitgey](https://www.adamgeitgey.com/) ([face_recognition](https://github.com/ageitgey/face_recognition)作者,此模組我們待會會用到) 兩人有詳細文章說明深度學習式的人臉識別的作法。


* [High Quality Face Recognition with Deep Metric Learning](http://blog.dlib.net/2017/02/high-quality-face-recognition-with-deep.html) (Davis)

* [Modern Face Recognition with Deep Learning](https://medium.com/@ageitgey/machine-learning-is-fun-part-4-modern-face-recognition-with-deep-learning-c3cffc121d78) (Adam)


非常推薦你們閱讀上述兩篇文章。


## 安裝人臉識別函式庫


除了 python 與 opencv 之外,還需要兩個函式庫


* [dlib](http://dlib.net/)

* [face_recognition](https://github.com/ageitgey/face_recognition)


dlib 由 [Davis King](https://www.pyimagesearch.com/2017/03/13/an-interview-with-davis-king-creator-of-the-dlib-toolkit/) 維護,包含我們人臉識別工作所需要的 "deep metric learning" 的實作。


face_recognition 由 [Adam Geitgey](https://www.adamgeitgey.com/) 所創,包裝了 dlib 的人臉識別的功能,讓它更方便使用。


我假設你已經裝了 opencv,如果沒有,我的文章 [OpenCV install tutorials](https://www.pyimagesearch.com/opencv-tutorials-resources-guides/) 有介紹。


接下來,來安裝 dlib 與 face_recognition 吧。


> 原文作者非常建議使用 `virtualenv` 加上 `virtualenvwrapper`,以免有 package 污染的問題。


### 安裝 dlib


> 有可能需要安裝 cmake,這個也可以用 `pip install cmake` 安裝


> 現在新的安裝包會自動看環境內有沒有足夠的函式庫,若有就會自己編譯成支援 GPU 的版本。

> Nvidia GPU 需要的有 CUDA Development Tools 與 cuDNN Library(這個要註冊 nvidia 開發者帳號,只要 email 即可申請)


使用 pip 安裝

`pip install dlib`


結束 (時代進步真方便)


### 安裝 face_recognition


使用 pip 安裝

`pip install face_recogntition`


結束


### 安裝 imutils



[imutils](https://github.com/jrosebr1/imutils)這個是方便包,一些 opencv 的組合招式都打包成函式供人取用,原文作者推薦。


使用 pip 安裝

`pip install imutils`


## 我們的人臉識別資料集


因為 Jurassic Park (1993) 是我最喜愛的電影,為了致敬 Jurassic World: Fallen Kingdom (2018) 在美國上映,我們將人臉識別用在這電影的幾個角色上:


* Alan Grant

* Claire Dearing

* Ellie Sattler

* Ian Malcolm

* John Hammond

* Owen Grady


資料集可以在 30 分鐘內使用我的方法建構。參閱 [How to (quickly) build a deep learning image dataset](https://pyimagesearch.com/2018/04/09/how-to-quickly-build-a-deep-learning-image-dataset/)。


有了這資料集,我們將會:


* 建立每個臉的 128-d 特徵向量

* 用這些特徵向量從靜態影像與動態影像中識別出角色們的臉


## 人臉識別專案架構


```

.

├── dataset

│   ├── alan_grant [22 entries]

│   ├── claire_dearing [53 entries]

│   ├── ellie_sattler [31 entries]

│   ├── ian_malcolm [41 entries]

│   ├── john_hammond [36 entries]

│   └── owen_grady [35 entries]

├── examples

│   ├── example_01.png

│   ├── example_02.png

│   └── example_03.png

├── output

│   └── lunch_scene_output.avi

├── videos

│   └── lunch_scene.mp4

├── search_bing_api.py

├── encode_faces.py

├── recognize_faces_image.py

├── recognize_faces_video.py

├── recognize_faces_video_file.py

└── encodings.pickle

```


我們專案有 4 個上層目錄:


* dataset/: 包含六個角色的臉的影像,依據名字放置

* examples/: 三個人臉影像,不在 dataset 裡,用來測試。

* output/: 這裡會存放處理後的人臉識別的動態影像

* videos/: 輸入動態影像會放在這裡。


我們也有六個檔案放在根目錄:


* search_bing_api.py: 第一步是建立 dataset,(原文作者已經寫好程式,直接執行即可)。要學如何使用 Bing API 建立資料集,參閱:[這貼文](https://pyimagesearch.com/2018/04/09/how-to-quickly-build-a-deep-learning-image-dataset/)

* encode_faces.py:用來將人臉編碼成特徵向量。

* recognize_faces_image.py:識別靜態影像中的人臉(依據你的資料集的人臉特徵向量)。

* recognize_faces_video.py:識別來自 webcam 的動態影像中的人臉,並輸出成動態影像。

* recognize_faces_video_file.py:識別來自硬碟的動態影像中的人臉,並輸出成動態影像。但今天不會討論這個,因為其骨架跟 video stream file 一樣。

* encodings.pickle:人臉識別編碼,由 encode_faces.py 處理你的資料集後產生,並序列化到硬碟之中。


在建立完資料集後,我們會使用 encode_faces.py 建立特徵向量。


## 使用 opencv 與 深度學習 建立人臉特徵向量


在我們識別人臉之前,我們首先需要將人臉編碼。這裡並沒有真的訓練識別的網路,而是使用 dlib 已經訓練好的模型。


我們當然可以自己從頭開始訓練自己的模型,或調整已存在的模型。但在這個專案來說太超過了。從頭訓練需要許多的影像。


然後,在分類時,我們可以使用簡單 k-NN 模型加上投票的方式做出人臉分類。其他傳統機器學習模型也有這樣用。


### 建立臉部特徵模型,使用 encode_faces.py。



```

# import the necessary packages

from imutils import paths

import face_recognition

import argparse

import pickle

import cv2

import os


# construct the argument parser and parse the arguments

ap = argparse.ArgumentParser()

ap.add_argument("-i", "--dataset", required=True,

help="path to input directory of faces + images")

ap.add_argument("-e", "--encodings", required=True,

help="path to serialized db of facial encodings")

ap.add_argument("-d", "--detection-method", type=str, default="cnn",

help="face detection model to use: either `hog` or `cnn`")

args = vars(ap.parse_args())


# grab the paths to the input images in our dataset

print("[INFO] quantifying faces...")

imagePaths = list(paths.list_images(args["dataset"]))

# initialize the list of known encodings and known names

knownEncodings = []

knownNames = []


# loop over the image paths

for (i, imagePath) in enumerate(imagePaths):

# extract the person name from the image path

print("[INFO] processing image {}/{}".format(i + 1,

len(imagePaths)))

name = imagePath.split(os.path.sep)[-2]

# load the input image and convert it from BGR (OpenCV ordering)

# to dlib ordering (RGB)

image = cv2.imread(imagePath)

rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)


    # detect the (x, y)-coordinates of the bounding boxes

# corresponding to each face in the input image

boxes = face_recognition.face_locations(rgb,

model=args["detection_method"])

# compute the facial embedding for the face

encodings = face_recognition.face_encodings(rgb, boxes)

# loop over the encodings

for encoding in encodings:

# add each encoding + name to our set of known names and

# encodings

knownEncodings.append(encoding)

knownNames.append(name)


# dump the facial encodings + names to disk

print("[INFO] serializing encodings...")

data = {"encodings": knownEncodings, "names": knownNames}

f = open(args["encodings"], "wb")

f.write(pickle.dumps(data))

f.close()


```



### 從靜態影像中識別出角色

recognize_faces_image.py

```

# import the necessary packages

import face_recognition

import argparse

import pickle

import cv2

# construct the argument parser and parse the arguments

ap = argparse.ArgumentParser()

ap.add_argument("-e", "--encodings", required=True,

help="path to serialized db of facial encodings")

ap.add_argument("-i", "--image", required=True,

help="path to input image")

ap.add_argument("-d", "--detection-method", type=str, default="cnn",

help="face detection model to use: either `hog` or `cnn`")

args = vars(ap.parse_args())


# load the known faces and embeddings

print("[INFO] loading encodings...")

data = pickle.loads(open(args["encodings"], "rb").read())

# load the input image and convert it from BGR to RGB

image = cv2.imread(args["image"])

rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)

# detect the (x, y)-coordinates of the bounding boxes corresponding

# to each face in the input image, then compute the facial embeddings

# for each face

print("[INFO] recognizing faces...")

boxes = face_recognition.face_locations(rgb,

model=args["detection_method"])

encodings = face_recognition.face_encodings(rgb, boxes)

# initialize the list of names for each face detected

names = []


# loop over the facial embeddings

for encoding in encodings:

# attempt to match each face in the input image to our known

# encodings

matches = face_recognition.compare_faces(data["encodings"],

encoding)

name = "Unknown"


    # check to see if we have found a match

if True in matches:

# find the indexes of all matched faces then initialize a

# dictionary to count the total number of times each face

# was matched

matchedIdxs = [i for (i, b) in enumerate(matches) if b]

counts = {}

# loop over the matched indexes and maintain a count for

# each recognized face face

for i in matchedIdxs:

name = data["names"][i]

counts[name] = counts.get(name, 0) + 1

# determine the recognized face with the largest number of

# votes (note: in the event of an unlikely tie Python will

# select first entry in the dictionary)

name = max(counts, key=counts.get)

# update the list of names

names.append(name)


# loop over the recognized faces

for ((top, right, bottom, left), name) in zip(boxes, names):

# draw the predicted face name on the image

cv2.rectangle(image, (left, top), (right, bottom), (0, 255, 0), 2)

y = top - 15 if top - 15 > 15 else top + 15

cv2.putText(image, name, (left, y), cv2.FONT_HERSHEY_SIMPLEX,

0.75, (0, 255, 0), 2)

# show the output image

cv2.imshow("Image", image)

cv2.waitKey(0)

```


### 從 webcam 識別出角色

recognize_faces_video.py

```

# import the necessary packages

from imutils.video import VideoStream

import face_recognition

import argparse

import imutils

import pickle

import time

import cv2

# construct the argument parser and parse the arguments

ap = argparse.ArgumentParser()

ap.add_argument("-e", "--encodings", required=True,

help="path to serialized db of facial encodings")

ap.add_argument("-o", "--output", type=str,

help="path to output video")

ap.add_argument("-y", "--display", type=int, default=1,

help="whether or not to display output frame to screen")

ap.add_argument("-d", "--detection-method", type=str, default="cnn",

help="face detection model to use: either `hog` or `cnn`")

args = vars(ap.parse_args())


# load the known faces and embeddings

print("[INFO] loading encodings...")

data = pickle.loads(open(args["encodings"], "rb").read())

# initialize the video stream and pointer to output video file, then

# allow the camera sensor to warm up

print("[INFO] starting video stream...")

vs = VideoStream(src=0).start()

writer = None

time.sleep(2.0)


# loop over frames from the video file stream

while True:

# grab the frame from the threaded video stream

frame = vs.read()

# convert the input frame from BGR to RGB then resize it to have

# a width of 750px (to speedup processing)

rgb = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)

rgb = imutils.resize(frame, width=750)

r = frame.shape[1] / float(rgb.shape[1])

# detect the (x, y)-coordinates of the bounding boxes

# corresponding to each face in the input frame, then compute

# the facial embeddings for each face

boxes = face_recognition.face_locations(rgb,

model=args["detection_method"])

encodings = face_recognition.face_encodings(rgb, boxes)

names = []


    # loop over the facial embeddings

for encoding in encodings:

# attempt to match each face in the input image to our known

# encodings

matches = face_recognition.compare_faces(data["encodings"],

encoding)

name = "Unknown"

# check to see if we have found a match

if True in matches:

# find the indexes of all matched faces then initialize a

# dictionary to count the total number of times each face

# was matched

matchedIdxs = [i for (i, b) in enumerate(matches) if b]

counts = {}

# loop over the matched indexes and maintain a count for

# each recognized face face

for i in matchedIdxs:

name = data["names"][i]

counts[name] = counts.get(name, 0) + 1

# determine the recognized face with the largest number

# of votes (note: in the event of an unlikely tie Python

# will select first entry in the dictionary)

name = max(counts, key=counts.get)

# update the list of names

names.append(name)


    # loop over the recognized faces

for ((top, right, bottom, left), name) in zip(boxes, names):

# rescale the face coordinates

top = int(top * r)

right = int(right * r)

bottom = int(bottom * r)

left = int(left * r)

# draw the predicted face name on the image

cv2.rectangle(frame, (left, top), (right, bottom),

(0, 255, 0), 2)

y = top - 15 if top - 15 > 15 else top + 15

cv2.putText(frame, name, (left, y), cv2.FONT_HERSHEY_SIMPLEX,

0.75, (0, 255, 0), 2)


    # if the video writer is None *AND* we are supposed to write

# the output video to disk initialize the writer

if writer is None and args["output"] is not None:

fourcc = cv2.VideoWriter_fourcc(*"MJPG")

writer = cv2.VideoWriter(args["output"], fourcc, 20,

(frame.shape[1], frame.shape[0]), True)

# if the writer is not None, write the frame with recognized

# faces to disk

if writer is not None:

writer.write(frame)


    # check to see if we are supposed to display the output frame to

# the screen

if args["display"] > 0:

cv2.imshow("Frame", frame)

key = cv2.waitKey(1) & 0xFF

# if the `q` key was pressed, break from the loop

if key == ord("q"):

break


# do a bit of cleanup

cv2.destroyAllWindows()

vs.stop()

# check to see if the video writer point needs to be released

if writer is not None:

writer.release()

```


### 從影像檔中識別出角色


先前提過,recognize_faces_video_file.py 基本上跟前一個程式一模一樣,差別只在影像來源是影像檔而不是 webcam。


## 能否在樹莓派執行這些程式?


基本上可以,但是有些限制


1. 樹莓派記憶體不夠使用 CNN-based 臉部偵測

2. 所以只能用 HOG 臉部偵測

3. HOG 在樹莓派上太慢,無法勝任即時臉部偵測

4. 所以需要使用 opencv haar cascades


(譯註:我的電腦 16G 也沒辦法做 CNN-based 臉部偵測)


在樹莓派上的速度約是 1-2 FPS。好消息時之後我會回來討論如何在樹莓派上執行這些程式,敬請期待。


## 結論


在這教程,你們學到了如何使用 opencv, python, deep learning 執行人臉識別。


我們利用了 Davis King 的 dlib 與 Adam Geitgey 的 face_recognition,讓實作更方便。


我們也看到,這裡提出的程式在準確度與有 GPU 的情況下即時運算的能力皆有達到水準。


希望你們喜歡這則人臉識別的貼文。



To download the source code to this post, and be notified when future tutorials are published here on PyImageSearch, just enter your email address in the form below!

2020年12月17日 星期四

[linux] 小工具 網路流量監控 nethogs 與 vnstat 與 iftop

 vnstat 執行後會不停計算網路流量,在結束之後,會出現統計數字,結算執行開始到結束的總流量與流速。這個比較適合很多台的流量報表產生。

Monitoring eth0...    (press CTRL-C to stop)


   rx:       51 kbit/s   105 p/s          tx:     6.64 Mbit/s   357 p/s^C



 eth0  /  traffic statistics


                           rx         |       tx

--------------------------------------+------------------

  bytes                      435 KiB  |       44.99 MiB

--------------------------------------+------------------

          max             106 kbit/s  |     9.71 Mbit/s

      average           68.49 kbit/s  |     7.26 Mbit/s

          min              42 kbit/s  |     3.32 Mbit/s

--------------------------------------+------------------

  packets                       7321  |           22559

--------------------------------------+------------------

          max                218 p/s  |         600 p/s

      average                140 p/s  |         433 p/s

          min                 84 p/s  |         208 p/s

--------------------------------------+------------------

  time                    52 seconds


nethogs 依照系統 process 分別列出流量,這個會比較適合在一台機器內抓誰是異常。

NetHogs version 0.8.5-2


    PID USER     PROGRAM                    DEV        SENT      RECEIVED       

   6344 pi       ..sr/lib/vino/vino-server  eth0      154.737       1.080 KB/sec


 iftop 依照對外部端點的進出列出流量,這個適合在一群機器裡可以抓出流量去哪兒了。


參考

  • https://askubuntu.com/questions/2411/how-do-i-find-out-which-process-is-eating-up-my-bandwidth

[python] pympler檢查記憶體使用量

一個可以檢查記憶體使用量的lib。

https://pythonhosted.org/Pympler/

from pympler import muppy
from pympler import summary
all_objects = muppy.get_objects()
all = summary.summarize(all_objects)
summary.print_(all)

2020年11月18日 星期三

[NAS]檔案儲存的安全

我很早之前是使用 mac 的 softraid,將兩個USB外接硬碟組成磁碟陣列,比起當時的其他的 raid 方案更彈性。

當硬碟失效時,可以換個硬碟,拉進磁碟陣列中等重建過後,即可恢復上線。
當 mac 失效時,可以換個 mac,兩個硬碟插入開始,磁碟陣列就可上線。
對硬碟沒有什麼要求,對 mac 的新舊也沒有要求。壞什麼就換什麼。就算只剩一個硬碟是好的,也可以恢復,也可以直接讀單顆硬碟裡的資料。後來因為太好用,所以後來一個 mac 上就接到 6 個硬碟,有三組磁碟陣列。用 samba 服務提供其他電腦存取。

但是時間久了,硬碟常斷電下線,手動回復重建時又可能遇到斷電下線,後來才知道有可能 USB 電源供應會因為年紀而衰退。但當時並不知道,所以重覆個幾次,就有資料毀損的情況產生。當把 mac 退役後,才感受到,一個 mac 掛三組磁碟陣列,一但失去它,就全部檔案無法使用的影響太大。但又沒找到更好方法,接下來幾年就只有使用單碟冷備份的方式存放檔案。

後來知道有 glusterfs,可以多主機共組磁碟陣列,彈性也是很高,於是採用樹莓派加個外接硬碟組成一個節點,兩個節點組成一組磁碟陣列。如此,四個部件壞掉哪一個都不會影響正常檔案存取。就算只剩一顆硬碟,用任何 linux 也可以讀到原來的檔案,將來沒有 glusterfs 也不用怕資料無法回復。而且變更節點組成的時候,可以線上變更,在修理、維護的時候仍然可以提供服務。一開始仍是用 samba 分享,但是仍然會有多檔、大檔會複製失敗的情況,後來自己寫個非常簡單的上傳程式,也就用快三年。也經歷過幾次硬碟壞掉或樹莓派壞掉的情況,修起來因為沒有圖形介面比較需要動腦,但是真的是很放心。在本機端來看,一組磁碟陣列就是一個硬碟掛到一般目錄之下,所以可以直接透過檔案系統做更複雜的管理(新增、刪除、移動)。

最近,又得知有個 min.io 的分散式網路儲存庫,號稱是很無腦,也很有彈性,只是它的彈性是節點以上的彈性。節點本身被規定一但組成就不能被變更,每個節點可以不一樣但建議要一樣。但是群內加節點擴增容量或減節點維設都不會影響整個服務,且保證有一半的部件失效都可正常讀取,容量會是總磁碟的一半。因為其目標是針對網路儲存,所以有內建網頁服務與網路API,在網路應用上就不用我自己寫個程式做檔案上下傳,但它就沒有辦法用檔案系統直接管理檔案了而是直接使用它提供的指令或網頁服務。

glusterfs 與 min.io 並不是互斥的選項,它們兩個也可以一起使用。glusterfs 是強在它的虛擬磁碟組成的動態彈性,而 min.io 是網路節點群的動態彈性。由這兩個的彈性可以組成自己想要的網路儲存系統。

2020年9月21日 星期一

[gae]從 appcfg 移民到 gcloud

 # 從 appcfg 移民到 gcloud


Google App Engine 我用了很久,一開始它是使用 appcfg 這個指令來執行上傳網站內容到 GAE 的環境去。


直到昨天才發現資料上傳的指令要改用 gcloud,而且,gcloud 的使用必須要綁定信用卡。以往,如果超額使用了,google 是想辦法限制你的 app,像我是使用免費額度的,用完就關閉,我也不在乎。但是現在的改變,是讓我非得要跟新用戶一樣,如果超額使用了,我自己要去關掉 app,不然我就會被追討錢。這一點很討厭啊。


不過,我有信心我的小小網站沒有人看是不可能會超額的,所以還是硬著頭皮把信用卡綁了,接下來就是設定 app 自動上傳的步驟。


## 移民的步驟


按照 https://cloud.google.com/appengine/docs/standard/python/sdk-gcloud-migration


下載 gcloud SDK,並且安裝它。

然後,到原本 app 的目錄上,執行 `gcloud app deploy <app 的目錄>`

然後照著指示做,像是登入、移除 app.yaml 裡的 application 與 version 改用指令指定之類的,都成功之後,上傳完畢會提醒你,要綁信用卡,否則 app build fail。所以再照著指示去綁信用卡。綁完就會成功上傳。


如果像我要自動上傳,指令要多加 --quiet,這樣就不用互動了。另外,也指定 app 的 version,這樣就不會產生新的版本,應該會直接覆蓋。免得版本放太多沒清掉被收錢。

2020年9月17日 星期四

[HP-UX]延壽計畫 結束

 HP-UX 老傢伙回家了,

客戶也沒問什麼。


關於 Python 的事,簡單記錄一下。


真心感謝這些 open source 的 source code 都有留著,

真的是夠老的程式,對於 hp-ux 還有一些修正,所以經過交叉試驗幾個版本的 python,

Python-2.3 應該是要修改比較少的。可以支援到網路與threading。

configure 的時候要使用 pth,而不要使用 pthread。

c編譯器要選 cc,c++編譯器要選 aCC。這兩個是老傢伙自己帶著的。


因為不知道該怎麼處理 configure 要增加 cflags,

所以在產生 Makefile 之後,在 cflags 的地方要加上 +DA1.1

如果遇到 aCC 抱怨 ccpython.cc 看不懂或 link 時少掉 symbol,那就去改使用 python.c 的那一個。


接下來就是球來就打,有抱怨就解的時間,大多就是修改重覆定義但內容不同的地方,或是去搜尋找不到的定義,都過了之就,就過了。報告完畢。


後註:Python-2.6.9 要從 source 編譯,需要另一個 python,所以,它也有了雞生蛋的問題。這幾年遇到幾次翻新的工作,得到的感觸就是有空能翻新就翻新,不要等太久的話,自動工具就沒辦法自動了,這讓要翻新的工夫比弄新的還大。翻新需要的其實也都不難,就是做苦工,而苦工就是需要時間與耐心。這時代好像大家都缺乏時間與耐心。


2020年9月14日 星期一

[golang]移植 go 到新的作業系統與架構

Go 1.5 之後,編譯 go 的方法
https://github.com/embeddedgo/go/tree/embedded/src/cmd/dist
https://docs.google.com/document/d/1OaatvGhEAq7VseQ9kkavxKNAfepWy2yhPUBs96FGV28/edit

根據這個文件,安裝新的 go,需要已經編譯好的 go。在還沒有 go 的地方,只能從 go1.4 開始編譯。因為 go1.4 是最後一個用 c 產生的 go 的編譯器。更高的版本都必須要用 go 來編譯。

官方文件 https://golang.org/doc/install/source 的方法,從 source 開始編譯 bootstrap toolchain,可以下載 https://dl.google.com/go/go1.4-bootstrap-20171003.tar.gz 。這個包裡面有做調整使它更適應新的作業系統。裡面可以支援的作業系統與指令集有限。

在 cmd/dist/build.c 裡有列出可用的作業系統與指令集
static char *okgoos[] = {
"darwin",
"dragonfly",
"linux",
"android",
"solaris",
"freebsd",
"nacl",
"netbsd",
"openbsd",
"plan9",
"windows",
};

static char *gochars = "5668";

static char *okgoarch[] = {
// same order as gochars
"arm",
"amd64",
"amd64p32",
"386",
};

在裡面會用到的 assambler, compiler, go compiler, linker 的程式碼,就放在 cmd/dist/[5-8][a,c,g,l]
例如,arm 架構就用 5[a,c,g,l],386 架構就用 8[a,c,g,l]

當 make.bash 能夠完整跑完,bootstrap toolchain 才算是完整。

裡面的流程是
1. 用 c 編譯 cmd/dist/dist 執行檔
2. 用 cmd/dist/dist bootstrap -a 編譯出 go_bootstrap 執行檔(原始檔來源 cmd/go)。cmd/dist/dist 會利用 [5-8][c,l] 與 gcc 編譯 .c 檔,用 [5-8][a] 編譯 .s 檔,用 [5-8][g,l] 編譯 .go 檔。
3. 用 go_bootstrap install 編譯 go 的其他 package,都是 .go 檔。
4. 最後刪除 go_bootstrap 執行檔
5. 用 cmd/dist/dist banner 顯示編譯資訊

以下有詳細指令關於從 source 編譯與安裝 go

http://www.boomerangsworld.de/cms/dev_guides/install_go.html

從以上資訊,可以了解到,在新的作業系統與架構上安裝 go,可能有兩種途徑:

1. 從 go1.4 開始,修正 cmd/dist/dist 的原始碼,認到正確的 GOOS GOARCH。然後在 cmd/dist/dist bootstrap 階段,提供正確的 a, c, g, l 的 .c, .s 檔案。

2. 使用 cross compile 的方式,在已經可以正常執行的環境下,編譯新架構的 go。在 go 大於 1.5 之後的版本,go compiler 與 go linker 的程式架構已經改變,所以要修改的程式與原來的 cmd/dist/[5-8][a,c,g,l] 不一樣。在 goroot/src/cmd/internal/obj, cmd/asm/internal, src/cmd/link, src/cmd/compile/internal/ssa/gen 這些地方都要修正。https://embeddedgo.github.io/2019/11/19/porting_go_to_microcontrollers_part1.html https://embeddedgo.github.io/2019/11/24/porting_go_to_microcontrollers_part2.html

假始只想要安裝 go1.4 的話,那麼就去修正 cmd/dist/[5-8][a,c,g,l] 應該就可以了。

如果,想要移殖新版的 go,應該採用第二個方法。產生一個新的 go。
如果採用第一個方法,在修正完 cmd/dist/[5-8][a,c,g,l] 之後,還要再修正 go compiler 與 go linker 的程式。等於做兩次工。

2020年9月12日 星期六

[HP-UX]HP-UX 延壽計畫

 # HP-UX 延壽計畫


最近工作要與 HP-UX 溝通,要來了解一下它的環境。

查了一下網路,是個 unix 系統。It's a Unix system, I know this! https://www.youtube.com/watch?v=dFUlAQZB9Ng

(從 jerv 學來的梗)


## 第一步

等到機器來了,先用鍵盤登入後,發現


只有 sh 與 vi

打錯字還不能 backspace ...


`vi` 簡單指令例如: i 遊標位置開始輸入、a 遊標位置後新增輸入、ESC 離開編輯模式、x 刪除遊標位置字元、dd 刪除遊標位置所在行、:w 存檔、:wq 存檔後離開。


google 如何改網路設定,如下:


設定 ip, mask, gateway

`vi /etc/rc.config.d/netconf`


改變 IP_ADDRESS[0] SUBNET_MASK[0] ROUTE_GATEWAY[0]


設定 ip 與 hostname 對應

`vi /etc/hosts`


設定 dns server

`vi /etc/resolv.conf`


然後,重開機,讓設定生效。(因為我不會手動使之生效)


## 第二步

網路設定生效之後,就可以坐在位子上遠端了。不然機台離我位子很遠。


首先看一下 uname

環境

```

mesf /# uname -a

HP-UX mesf B.10.20 A 9000/785 2010791808 two-user license


```


更改時間 使用 `date` 指令



hp-ux 的軟體管理工具程式有 `swlist` `swinstall` `swremove`


已經內裝好的程式有:


  700QPK1020                            ACE.199912.02  Workstation Quality Pack for HP-UX 10.20 (December 1999)

  B3899BA                               B.10.20.07     HP C/ANSI C Developer's Bundle for HP-UX 10.20 (S700)

  B3907CA                               B.10.20.07     HP FORTRAN/S700 Compiler and its associated products

  B3907DB                               B.10.20.14     HP Fortran 90/S700 Compiler and its associated products

  B3911DB                               A.01.15.01     HP aC++ Compiler S700

  B5402AA_APZ                           B.10.20        MirrorDisk/UX

  B6193EA                               ACE.199912.01  Workstation ACE for HP-UX 10.20 (December 1999)

  B6378DA                               ACE.199912.01  Networking ACE for HP-UX 10.20 (December 1999)

  HPUXEngCR700                          B.10.20        English HP-UX CDE Runtime Environment

  Ignite-UX-10-20                       A.2.3.205      HP-UX Installation Utilities for Installing 10.20 Systems

  J2559C                                D.06.15        Hewlett-Packard JetAdmin for Unix Utility



此外,ftp server 也已經可用,一開始我還用 ftp 指令下載檔案,痛苦。


經過搜尋之後,以下這個網站的程式才可以用。


http://mirrors.develooper.com/hpux/downloads.html


這個網站非常重要,只有它有 hp-ux 10.20 32bit PA-RISC 1.1 的工具程式。


下載 `bash-4.3.30` `gcc-4.2.2 + binutils-2.16.1 + gdb-6.5`


依照網站說明

.sd.bz 用 bzip2 解開(`bzip2 -d foo-x.y.sd.bz`),然後用 `swinstall -s <絕對路徑>/foo-x.y.sd` 安裝


其他想要用的程式,可能都要自己編譯安裝才行。


## 第三步

目標是在這個老傢伙身上安裝軟體,如果不能的話,就自己寫,寫 fortran 當然是有點太遠,寫 c/c++ 來選我一定是選 c。


但是,如果有其他的程式語言可以從這傢伙 build 出來,至少我可以不用傷腦筋字串、記憶體、指標、網路通訊的問題,時間一定會比較省,bug 應該也會比較少。


一開始先找可用 gcc 編譯的程式語言,太新的語言大多相依 linux, 或新版的 gcc,或很新的 lib。最後可選的是 python,go。但是事情沒有這麼簡單,在嘗試過程中才知道,thread 這件事是要看系統與編譯系統,原來的系統與所附的的 cc 與 aCC 不支援 thread。我安裝的這個 gcc-4.2.2 + binutils-2.16.1 + gdb-6.5 也沒有支援。


嘗試編譯 go 的過程非常複雜,最後就是卡到要寫 asm,放著。


嘗試編譯 python 的過程非常複雜,有需要再說,總之現在得到一個堪用的 python,有些 module 沒有編成功。雖然沒有 thread,但是有網路功能。


從 https://www.python.org/downloads/source/ 下載 Python-2.1.3.tgz,解開之後,進到 Python-2.1.3,

執行以下指令


```

./configure --without-threads

make

make test

```


結果是


```

108 tests OK.

3 tests failed: test_builtin test_pickle test_popen

30 tests skipped: test_al test_asynchat test_bsddb test_cd test_cl test_dl test_fcntl test_fork1 test_gdbm test_gl test_gzip test_imgfile test_largefile test_linuxaudiodev test_locale test_minidom test_nis test_openpty test_pty test_pyexpat test_sax test_socketserver test_sunaudiodev test_sundry test_thread test_threadedtempfile test_winreg test_winsound test_zipfile test_zlib

```


builtin 模組不能用有一點點讓人擔心,它的失敗原因是 `test test_builtin crashed -- exceptions.ValueError: int() literal too large: -2147483648` 這代表編譯時候的 int 與 python 認知 int 邊界可能有差異,可能所有的 int 都要小心。


想要支援 thread,系統有安裝 pth,但是用 gcc 編譯有各種問題,之後再寫有哪些問題。