|
3 年之前 | |
---|---|---|
.mvn | 3 年之前 | |
config | 3 年之前 | |
deploy | 3 年之前 | |
qhiot-cache | 3 年之前 | |
qhiot-core | 3 年之前 | |
qhiot-influxdb-core | 3 年之前 | |
qhiot-kafka | 3 年之前 | |
qhiot-log | 3 年之前 | |
qhiot-main | 3 年之前 | |
qhiot-package | 3 年之前 | |
qhiot-transport-db | 3 年之前 | |
qhiot-transport-message | 3 年之前 | |
qhiot-transport-server | 3 年之前 | |
qhiot-websocket | 3 年之前 | |
.gitignore | 3 年之前 | |
Readme.md | 3 年之前 | |
mvnw | 3 年之前 | |
mvnw.cmd | 3 年之前 | |
pom.xml | 3 年之前 |
@2021-05-20 17:15:39 将文件系统服务器移到 basic 系统中相关配置同上层配置
core:
storePath: D:/seem_file/
@2021-05-18 17:18:13 由于日志系统log4j.xml解读yml配置比较麻烦,所以相关配置需要在log.properties中写一份
app.node=1
log2es.clusterNodes=127.0.0.1:9300
log2es.clusterName=elasticsearch
log2es.index=qhseem
@2021-05-20 17:29:48 由于消息通讯的需要,上层link需要引入同一个 qhiot-transport-message包。
@2021-05-20 17:45:00 已经将流量记录作废
ChannelHandler.java 上行流量统计
public void channelRead(ChannelHandlerContext ctx, Object buf) throws Exception {
channelUtil.upstream(ctx.channel(), context, (ByteBuf) buf);
}
ByteEncoder.java 下行流量统计
protected void encode(ChannelHandlerContext ctx, ByteBuf msg, List<Object> out) throws Exception {
// byte[] rawBytes = ByteBufUtil.getBytesRemaining(msg.nioBuffer());
//
// Integer downstreamSize = ctx.channel().attr(AttrKey.DOWNSTREAM_SIZE).get();
// if (downstreamSize == null) {
// downstreamSize = 0;
// }
// downstreamSize += rawBytes.length;
// ctx.channel().attr(AttrKey.DOWNSTREAM_SIZE).set(downstreamSize);
out.add(msg.copy());
}
取消相应的流量统计任务 ChannelUtil.java
public void channelInactive(){
// 保存流量记录
// saveTrafficStream(channel, true);
}
流量重置定时任务废弃
TrafficStreamResetter
@2021-05-20 17:44:13 计划将 离线在线状态存入数据库的任务取消 @TODO 延后 原本为收到报文时立刻发消息告诉web页面,同时将在线状存人线程安全Map中,以及缓存中;
现在计划将在线状态推送到外围link,由外围link做统计、分发、存储
@2021-05-21 10:43:30 计划将原始报文转发功能废弃,转而进行一次消息推送,而后由外围link做转发 @TODO 延后
@2021-05-21 10:44:59 计划记录原始报文的PacketV2对象(序列化过),并标记解析是否成功,如解析成功则此对象不存入influxdb,如解析不成功则寻找合适时机尝试重新解析
字段名 | 数据类型 | 字段类型 | 备注 |
---|---|---|---|
packetV2 | string | tag | 序列化的packetV2 |
decoderNum | int | field | 解析次数 |
time | -- | field | -- |
@2021-05-21 11:41:19 告警相关状态需要发送到消息中,需要和刘培栋商议
@2021-05-21 11:45:55 HistoryDataProcessor 中,原本发送到各处的消息队列废弃,只发送一次消息到外围link,之后的逻辑也由外围link决定如何做
HistoryDataProcessor中,将数据存入influx link 层面
@2021-05-21 11:47:25 link数据库设计
字段名 | 数据类型 | 字段类型 | 备注 |
---|---|---|---|
tenantId | string | tag | 租户id |
deviceId | string | tag | 网关id |
monitoringCode | string | tag | 测点序号id |
monitorCode | string | tag | 监测代码 |
value | string | tag | 监测值 |
time | string | tag | 监测时间 |
@2021-05-21 13:55:14 考勤数据处理未做 Tag24gDataProcessor 计划将考勤消息发送到消息队列 从Tag24gDecoder @TODO TAG24G_DATA 路径订阅,单点订阅,需要app端实现存入数据库
@2021-05-21 17:49:12 关于kafka,考虑到同一个topic,有可能会同时某个任务只消费一次,同时有其他任务需要做多次消费,所以topic和group需要着重考虑;
是否可以考虑采用app.node
topic: 设置为发送路径
groupId:
一个存储map的对象,内存储队列->开关状态,kafka监听是否允许推送
@2021-05-25 16:49:12 关于kafka,金工建议给与一个开关,用于控制此消息队列是否发送;需要外围link给予配置接口 @TODO
@2021-05-25 17:57:01 考虑传输层面日志按需推送 @TODO
@2021-05-27 17:20:52 JmsLoggerListener对象的kafka实现,需要放到link外围 @TODO
@2021-05-27 17:45:25 移除原因jms注册部分
@2021-05-31 11:05:248 所有涉及到站点的消息队列实现,都需要到消费者层级实现