最近一個項目中需要用到OPC client,從OPC Server中獲取數(shù)據(jù)。主要的編程語言使用Java實現(xiàn)。實際開發(fā)中遇到了各種坑,其實也和自己沒有這方面的經(jīng)驗有關(guān),現(xiàn)在寫一篇文章分享下整個項目中遇到的一些問題。
準(zhǔn)備知識
開發(fā)OPC Client之前需要一些準(zhǔn)備知識,需要一些知識儲備,否則根本搞不清楚里面的門道?,F(xiàn)在對一些預(yù)先準(zhǔn)備的知識點做一概述。OPC是什么就不說了。
OPC Server端的協(xié)議
OPC Server端目前常見的有以下幾種協(xié)議:
- OPC DA: Data Access協(xié)議,是最基本的OPC協(xié)議。OPC DA服務(wù)器本身不存儲數(shù)據(jù),只負(fù)責(zé)顯示數(shù)據(jù)收集點的當(dāng)前值??蛻舳丝梢栽O(shè)置一個refresh interval,定期刷新這個值。目前常見的協(xié)議版本號為2.0和3.0,兩個協(xié)議不完全兼容。也就是用OPC DA 2.0協(xié)議的客戶端連不上OPC DA 3.0的Server
- OPC HDA: Historical Data Access協(xié)議。前面說過DA只顯示當(dāng)前狀態(tài)值,不存儲數(shù)據(jù)。而HDA協(xié)議是由數(shù)據(jù)庫提供,提供了歷史數(shù)據(jù)訪問的能力。比如價格昂貴的Historian數(shù)據(jù)庫,就是提供HDA協(xié)議接口訪問OPC的歷史數(shù)據(jù)。HDA的Java客戶端目前我沒找到免費的。
- OPC UA: Unified Architecture統(tǒng)一架構(gòu)協(xié)議。誕生于2008年,摒棄了前面老的OPC協(xié)議繁雜,互不兼容等劣勢,并且不再需要
COM口訪問,大大簡化了編程的難度?;贠PC UA的開源客戶端非常多。不過由于誕生時間較晚,目前在國內(nèi)工業(yè)上未大規(guī)模應(yīng)用,并且這個協(xié)議本身就跟舊的DA協(xié)議不兼容,客戶端沒法通用。
我們的目標(biāo)環(huán)境絕大多數(shù)是OPC DA 2.0的Server,極個別可能有OPC DA 3.0。當(dāng)時找到的很多類庫實現(xiàn)的都是OPC UA的。
第一坑: 基于JAVA開發(fā)的OPC Client非常少,大部分是商業(yè)的,售價不菲。現(xiàn)場環(huán)境又是OPC DA的Server,開源client只有兩個可選,找工具和評估就花了不少時間。
OPC存儲格式
OPC存儲和傳統(tǒng)的關(guān)系型數(shù)據(jù)庫存儲格式有很大的不同,不同于關(guān)系型數(shù)據(jù)庫的表存儲,OPC存儲格式是樹形結(jié)構(gòu),Server端的存儲格式如下:
host
`-- OPC Server Name
`-- tag1: value, type, timestamp, ...,
`-- tag2: value, type, timestamp, ...,
`-- tag3: ...
...
每個主機上可能存在多個OPC Server,每個Server下面有若干個tag,就是各個數(shù)據(jù)收集點當(dāng)前的值,會定期更新。每個tag包含的內(nèi)容大致有當(dāng)前值,值類型,時間戳等等數(shù)據(jù)。是一種樹形結(jié)構(gòu)。所以客戶端連接的時候需要指明服務(wù)器的ip或主機名,需要連接的OPC服務(wù)名,以及監(jiān)聽哪些tag的數(shù)據(jù)。
Client端存儲的格式如下:
Group1
`-- tag1
`-- tag2
`-- tag3
Group2
`-- tag4
`-- tag5
...
這個就比較有意思了,Client是可以自己維護(hù)一個存儲層級Group。也就是服務(wù)端存儲的都是一個個tag,客戶端可以自己維護(hù)一個個Group,分類存放這些tag。所以O(shè)PC的Client就和傳統(tǒng)的關(guān)系型數(shù)據(jù)庫有很大的不同??蛻舳顺酥该魃鲜鯯erver端的信息之外,還需要創(chuàng)建一個個Group,將Server端的tag一個個放到這些Group中,然后對應(yīng)的tag才能持續(xù)的獲得數(shù)據(jù)。
第二坑: 這種存儲格式在其他數(shù)據(jù)庫十分罕見,當(dāng)時這里就迷茫了好一陣子,通過了解協(xié)議的人講解,才明白原來客戶端還可以維護(hù)一套存儲結(jié)構(gòu)。當(dāng)時沒理清楚Group和tag的關(guān)系,從服務(wù)端看不到Group,客戶端卻要填一個Group,不知道這個Group從哪來。后來才搞清楚。
COM
Component Object Model對象組件模型,是微軟定義的一套軟件的二進(jìn)制接口,可以實現(xiàn)跨編程語言的進(jìn)程間通信,進(jìn)而實現(xiàn)復(fù)用。
DCOM
Microsoft Distributed Component Object Model,坑最多的一個玩意。字面意思看起來是分布式的COM,簡單理解就是可以利用網(wǎng)絡(luò)傳輸數(shù)據(jù)的COM協(xié)議,客戶端也可以通過互聯(lián)網(wǎng)分布在各個角落,不再限制在同一臺主機上了。
上面描述來看這玩意好像挺美好是吧?實際操作開發(fā)中才發(fā)現(xiàn),這玩意簡直是坑王之王,對于不熟悉的人來說充滿了坑,十分折騰。配置過程可以參考一些文章
- DCOM是windows上的服務(wù),使用前需要啟用
- DCOM是遠(yuǎn)程連接的協(xié)議,需要配置相關(guān)的權(quán)限,以及防火墻規(guī)則放行
- 特別注意這一點,前兩項配置在網(wǎng)上都能找到,這一條是我在經(jīng)歷無數(shù)次痛之后才意識到的。DCOM遠(yuǎn)程連接和http不同,是通過本地用戶認(rèn)證的,需要以本地用戶身份登錄服務(wù)器,拿到相應(yīng)的權(quán)限,才能使用DCOM。有點繞是吧?你可以類比Windows的遠(yuǎn)程桌面登錄,需要拿到服務(wù)器的用戶名密碼才能登錄并操作系統(tǒng),權(quán)限受到登錄用戶的權(quán)限所限制。而DCOM就是用的這種方式。關(guān)于各種錯誤網(wǎng)上能找出一大堆解決方案,可能還沒一個能解決你的問題的。甚至可能
progID無論無何也通不了,始終報錯,不得不改用CLSID這種方法,十分坑。
神坑: DCOM。從配置開始就充滿了陷阱和坑。不但配置繁瑣復(fù)雜,還會受到各種權(quán)限以及防火墻規(guī)則的影響。最惡心的是這玩意隨時可能報各種奇葩的錯誤,由于缺乏足夠的錯誤信息,很難解決,基本憑借經(jīng)驗解決DCOM的故障。
開發(fā)過程
收集到足夠的準(zhǔn)備知識后,就可以開工了。OPC Server是DA 2.0的,因此找到了以下兩個開源類庫。
JEasyOPC Client
- 底層依賴JNI,只能跑在windows環(huán)境,不能跨平臺
- 整個類庫比較古老,使用的dll是32位的,整個項目只能使用32位的JRE運行
- 同時支持DA 2.0與3.0協(xié)議,算是亮點
- OpenSCADA項目底下的子項目
- 純Java編寫,具有跨平臺特性
- 全部基于
DCOM實現(xiàn)(劃重點) - 目前只支持DA 2.0協(xié)議,3.0協(xié)議的支持還在開發(fā)中
這兩個類庫都試過,JEasyOPC底層用了JNI,調(diào)用代碼量倒不是很大,使用也足夠簡單,坑也遇到了點,就是64位的JRE運行會報錯,說dll是ia32架構(gòu)的,不能運行于AMD64平臺下,換了32位版本的JRE之后運行起來了,但是一直報錯Unknown Error,從JNI報出來的,不明所以,實在無力解決,只能放棄。
只剩下Utgard一種選擇了,也慶幸目標(biāo)Server是DA 2.0的,用這個類庫完全夠用。這個類庫全部使用DCOM協(xié)議連接OPC Server,所以對于本地連接OPC Server,理論上不需要COM口,但是這個類庫全部使用DCOM協(xié)議連接,所以依舊需要配置主機名,以及登錄的用戶名密碼。使用之前必須先配置DCOM,其中痛苦不足為外人道也,在上面準(zhǔn)備知識部分已經(jīng)寫道了。
經(jīng)過一番折騰,總算將項目跑起來了,最終參考的工程代碼如下(項目實用Gradle構(gòu)建,代碼使用Utgard官方的tutorial范例):
build.gradle:
apply plugin: 'java'
apply plugin: 'application'
repositories {
maven { url 'http://maven.aliyun.com/nexus/content/groups/public/' }
jcenter()
maven { url 'http://neutronium.openscada.org/maven/' }
}
dependencies {
compile 'org.openscada.utgard:org.openscada.opc.lib:1.3.0-SNAPSHOT'
compile 'org.openscada.utgard:org.openscada.opc.dcom:1.2.0-SNAPSHOT'
compile 'org.jinterop:j-interop:2.0.4'
compile 'ch.qos.logback:logback-core:1.2.3'
compile 'org.slf4j:slf4j-api:1.7.25'
}
mainClassName = 'UtgardTutorial1'
src/main/java/UtgardTutorial1.java:
import org.jinterop.dcom.common.JIException;
import org.openscada.opc.lib.common.ConnectionInformation;
import org.openscada.opc.lib.da.AccessBase;
import org.openscada.opc.lib.da.Server;
import org.openscada.opc.lib.da.SyncAccess;
import java.util.concurrent.Executors;
public class UtgardTutorial1 {
public static void main(String[] args) throws Exception {
// create connection information
final ConnectionInformation ci = new ConnectionInformation();
ci.setHost("localhost");
ci.setUser("Administrator");
ci.setPassword("mypassword");
ci.setProgId("TLSvrRDK.OPCTOOLKIT.DEMO");
// ci.setClsid("08a3cc25-5953-47c1-9f81-efe3046f2d8c"); // if ProgId is not working, try it using the Clsid instead
final String itemId = "tag1";
// create a new server
final Server server = new Server(ci, Executors.newSingleThreadScheduledExecutor());
try {
// connect to server
server.connect();
// add sync access, poll every 500 ms
final AccessBase access = new SyncAccess(server, 500);
access.addItem(itemId, (item, state) ->
System.out.println("Resut: " + state.toString()));
// start reading
access.bind();
// wait a little bit
Thread.sleep(10 * 1000);
// stop reading
access.unbind();
} catch (final JIException e) {
System.out.println(String.format("%08X: %s", e.getErrorCode(), server.getErrorMessage(e.getErrorCode())));
e.printStackTrace();
}
}
}
最終項目運行輸出如下:
Recieved RESPONSE
Resut: Value: [[]]], Timestamp: 星期三 七月 05 00:32:29 CST 2017, Quality: 192, ErrorCode: 00000000
七月 05, 2017 12:32:27 上午 rpc.DefaultConnection processOutgoing
信息:
Sending REQUEST
七月 05, 2017 12:32:27 上午 rpc.DefaultConnection processIncoming
信息:
Recieved RESPONSE
Resut: Value: [[]]], Timestamp: 星期三 七月 05 00:32:29 CST 2017, Quality: 192, ErrorCode: 00000000
七月 05, 2017 12:32:28 上午 rpc.DefaultConnection processOutgoing
信息:
Sending REQUEST
七月 05, 2017 12:32:28 上午 rpc.DefaultConnection processIncoming
信息:
Recieved RESPONSE
Resut: Value: [[U]], Timestamp: 星期三 七月 05 00:32:30 CST 2017, Quality: 192, ErrorCode: 00000000
七月 05, 2017 12:32:28 上午 rpc.DefaultConnection processOutgoing
信息:
Sending REQUEST
七月 05, 2017 12:32:28 上午 rpc.DefaultConnection processIncoming
信息:
Recieved RESPONSE
Resut: Value: [[U]], Timestamp: 星期三 七月 05 00:32:30 CST 2017, Quality: 192, ErrorCode: 00000000
七月 05, 2017 12:32:29 上午 rpc.DefaultConnection processOutgoing
信息:
總算跑起來了。