Tensorflow 如何解释RNN的奇怪训练曲线?

我使用tensorflow在我的数据集上训练一个简单的两层RNN。训练曲线如下图所示: 其中,x轴是步骤(在一个步骤中,使用batch_size样本数更新净参数),而y轴是精度。红、绿、蓝线分别表示训练集、验证集和测试集的准确度。似乎训练曲线并不平滑,并且有一些腐败的变化。这合理吗 这绝对没问题,因为您使用的是SGD。总的趋势是,随着使用的小批量数量的增加,您的准确度会增加,但是,一些小批量可能与大多数其他小批量显著“不同”,因此它们的准确度可能会很差。这是绝对正确的,因为您使用的是SGD。总

tensorflow中RNN和LSTM的实现

我一直在努力学习如何在tensorflow中编写RNN和LSTM。我在这篇博文的网上找到了一个例子 下面是我在理解最终用于字符rnn生成的LSTM网络时遇到的问题 x = tf.placeholder(tf.int32, [batch_size, num_steps], name='input_placeholder') y = tf.placeholder(tf.int32, [batch_size, num_steps], name='labels_placeholder'

tensorflow是否会合并参数服务器和工作者之间的请求/响应,以及网络IO是如何完成的?

我不熟悉tensorflow分布式运行时和图形调度。现在我们有30组稀疏特征,所有这些特征都需要进行嵌入查找。关于ps和工人之间的沟通,我有两个问题 如果我们使用一个嵌入查找调用将这30个组合并为一个组和查找参数,效率会更高吗?如果我们将它们保留为30个单独的组并调用30个调用,tensorflow运行时是否会检测到它并将张量发送给ps,并通过批处理从ps接收张量 我的理解是,若工人并没有更多的工作要做,工人将等待参数响应。既然我们经常使用一个python循环来驱动图形运行,那么如何驱动tens

TensorFlow与OpenCL

它似乎只支持CUDA而不支持OpenCL 我看过这个项目,它将CUDA代码编译成OpenCL,但它仍然是一个开发版本,并非在所有情况下都能工作 我的问题是,TensorFlow的开发者Google是否会开发其工具的多平台版本(不,我不是指仅CPU版本)。专有CUDA的功能对于专注于单个GPU供应商来说是否如此关键?是否有计划在将来的任何时候开发OpenCL/Vulkan/SPIR-V版本?答案显然是肯定的,Tensorflow在过去几周开始支持OpenCL SYCL,仍然在github主分支中,

Tensorflow 如何从一个子图组装一个新操作,并将梯度应用于新组装的操作

我想从一个子图(由几个连接的操作节点组成)组装一个新操作。然后在新操作上应用自行设计的梯度。(重点是忽略子图中的梯度流,忽略新OP输出张量到新OP输入张量的桥梯度)。希望有人能帮忙 您可以将子图包装到TensorFlow函数中,并为该函数指定自定义梯度,如中所述 我在github上跟踪了您:) @function.Defun(dtype, dtype, dtype) def XentLossGrad(logits, labels, dloss): dlogits =

在TF源代码树外编译自定义TensorFlow操作

我有一个自定义TensorFlow操作,它当前位于/TensorFlow/core/user_ops中,并使用tf_自定义_op_库BUILD中的bazel函数。我想将它从TF源代码树中分离出来,并在一个独立的存储库中发布。我如何编译这样的操作?通常您会将TensorFlow作为一个外部依赖项,但现在有一个问题使得这不可能实现——还有另一个问题,bazel.select()函数对它定义的工作区不敏感,有一堆bazel。在自定义\u op/cuda规则中选择——我们一直在TF源代码树中构建东西,然

Tensorflow:GPU上稀疏张量的梯度计算

我建立了一个类似于CIFAR10的GPU实现的tensorflow模型。我有一个基本模型,当网络变量在CPU上时,它在每个GPU上执行。只要我不使用稀疏张量作为层中的权重矩阵,一切都很好 我的稀疏权重矩阵是使用函数tf.sparse\u to\u densite()或tf.diag()构建的。当我在CPU上运行它时,一切正常,但当我在GPU上运行它时,我得到的信息是,这些函数没有GPU实现 还有别的选择吗?如何构造位于CPU上但在GPU上经过训练的稀疏权重矩阵?您可以在GPU中实现这些操作,并让

tensorflow中的多个if-else条件

我有一个形状为(1)的浮点张量,它的值介于0.0和1.0之间。 我想“bin”这个张量的范围,如: if 0.0 < x < 0.2: return tf.Constant([0]) if 0.2 < x < 0.4: return tf.Constant([1]) if 0.4 < x < 0.6: return tf.Constant([2]) if 0.6 < x: return tf.Constant([3]) 如果0.

TensorFlow RNN中的输出序列

我创建了一个简单的TensorFlow程序,尝试使用正文中的前3个字符预测下一个字符 单个输入可能如下所示: np.array(['t','h','i']) ... logits = tf.layers.dense(states, units=vocab_size, activation=None) weights = tf.sequence_mask(seq_length, n_steps) xentropy = tf.contrib.seq2seq.sequence_loss(logits

Tensorflow `Tensor OpKernelContext::可变输入(整数索引,布尔锁保持)`

我一直在尝试编写一个自定义运算,并希望修改输入张量。我浏览了代码,在op_kernel.cc 但是,返回类型是值,而不是引用。我尝试过对其进行修改,但效果并未反映在输入中 如果打算按值返回,那么作者为什么要使用record\u tensor\u reference(tensor)增加引用计数 (顺便说一句,我已经对代码进行了重新分解,因此我不一定需要更改op中的输入。但我仍然期待着答案)如果输入数据在CPU上,并且操作员在GPU上注册,tf会将输入复制到GPU内存中,因此可变_输入的返回指针指向

Tensorflow分布对象返回概率大于1

tendsorflow分布对象返回大于1的概率值是否有任何原因 这是我的代码的基本结构 NN(输入)是一种神经网络 μ,σ=NN(输入) d=分布。正态分布(μ,σ) (获取目标的概率。) probs=d.prob(目标) 其中mu、sigma和目标是形状[批次大小,1] probs大约从0.5开始,随着模型列车的运行,probs逐渐增加,直到最后高达8 你能发布或链接足够的代码来重现你描述的情况吗?这会有很大的帮助。当你应该重做hanks的时候,你似乎在积累价值!我编辑了原文。我不确定将ten

检测TensorFlow中的最后一个维度是1还是5?

我正在编写TensorFlow(python)逻辑来确定张量的最后一个维度是1还是5。如果张量是标量,则此表达式应为false。在图构造时,张量的形状是未知的 给定张量输入,我已经试过了 tf.logical_and( # The tensor must not be a scalar. tf.greater(tf.rank(input), 0), # Check the last dimension. tf.logical_or( tf.equal(tf.shape(i

使用SavedModelBuilder保存的tensorflow模型不返回概率(0到1)

我是tensorflow的初学者,已经建立了一个对名字进行分类的模型。乍一看,虽然精度仍然太低(~92%),但曲线的形状看起来不错(精度迅速提高,损耗迅速下降) 如果我在训练后直接使用模型进行预测(使用相同的会话),它将返回预期的概率向量(介于0和1之间)(正如我在最后一层中使用softmax) 输出为: [0.38823529411764707, 0.40784313725490196, 0.3803921568627451, 0.43137254901960786, 0.4039215686

数据量是否影响识别速度?[tensorflow]

您好,我有一个tensorflow模型,我用大约300张图片指导它,培训在Google云中进行,我在那里识别它并向我的服务器发送响应。问题是,数据量是否会影响识别速度,也就是说,如果我训练3000张图片,识别速度是否会更快?否,您的识别速度仅取决于您的计算图 识别的准确性取决于所使用的训练图像 否,您的识别速度仅取决于您的计算图表 识别的准确性取决于所使用的训练图像 感谢您的回答,奇怪的是云的识别时间比本地长3倍,关于性能,您可以检查此云以提高性能问您答案,奇怪的是云的识别时间比本地长3倍,关于

从Tensorflow中的张量中随机选择元素

给定形状为Nx2的张量,如何从该张量中选择类似于np.random.choice的k元素(概率相等)?另一点需要注意的是,N的值在执行过程中动态变化。意思是说我在处理一个动态大小的张量。你可以把np.random.choice包装成tf.py\u func。例如,请参见此示例。在本例中,需要展平张量,使其成为长度为2*N的数组: import numpy as np import tensorflow as tf a = tf.placeholder(tf.float32, shape=[No

Tensorflow:了解带和不带辍学包装器的LSTM输出

我使用的是Tensorflow 1.8.0 我希望y2的输出与y1类似,因为y2使用与y1相同的LSTM单元,只是它也通过一个退出层。由于只在LSTM单元的输出上应用了漏值,因此我认为y2的值将与y1的值相同,只是有些零零。但这就是我为y1所得到的: import tensorflow as tf import tensorflow.contrib.eager as tfe tfe.enable_eager_execution() x = tf.range(1, 11, dtype=tf.f

Tensorflow 在Keras中的自定义损耗,softmax为一个热点

我有一个输出Softmax的模型,我想开发一个自定义损耗函数。理想的行为是: 1) Softmax设置为1 hot(通常我使用numpy.argmax(Softmax_vector)并在空向量中将该索引设置为1,但在丢失函数中不允许这样做) 2) 将生成的一个热向量乘以我的嵌入矩阵,得到一个嵌入向量(在我的上下文中:与给定单词关联的单词向量,其中单词已标记并分配给索引或Softmax输出的类) 3) 将该向量与目标进行比较(这可能是正常的Keras损失函数) 我通常知道如何编写自定义损失函数,但

如何使用numpy对tensorflow lite中的张量进行运算

我有一个tensorflow图,它试图将一个图像分割成三个单通道图像 input_image = tf.placeholder(name="input_image", dtype=tf.float32, shape=[512 * 512 *3]) feed_dict ={input_image:resized_image_data} channel_image = tf.reshape(input_image, (512, 512, 3)) 我切片张量,计算模糊,然后在“评估”张量上使用nu

Tensorflow 如果我的RAM不足,交换内存是否有帮助?

StackOverflow新手,没有足够的积分发表评论。因此,开启了一个新的问题 我遇到了与此相同的问题: 在这种情况下,交换内存有帮助吗 关于平台的更多信息: Ubuntu Mate 16.04上的Ras Pi 3 RAM-1GB 存储-32 GB SD卡 框架:Tensorflow 网络架构-类似于AlexNet的复杂性 谢谢你的帮助 谢谢 SK虽然交换可以避免链接问题中的硬失败,但交换通常会毁掉你的推理。b/w RAM和任何其他形式的存储在吞吐量和延迟方面的差异实在太大了 粗略估计,

Tensorflow 我是否需要一个神经网络或像neo4j这样的图形数据库作为建议引擎?

我正在为维护人员列表的演示应用程序构建一个简单的推荐/建议引擎。对于每个人来说,它会根据以下偏好跟踪他们的饮食习惯: 饮食类型:素食者/非素食者/素食者 美食喜好:印度菜、墨西哥菜、意大利菜等(一个人可以喜欢不止一种) 用餐类型及确切时间:早餐、午餐、晚餐、晚餐 特殊饮食:酮类、血型、阿特金斯等 最喜欢的蔬菜:菠菜、花椰菜等 食物过敏要求 位置-城市、地区、街道等 一旦这些数据可供系统使用,我需要构建一个简单的建议引擎- 对于任何被选中的人,建议另外10个在饮食习惯方面最适合的人 对于一组被选中

如何使用数据集将数据数组提供给tensorflow推理?

我是Tensorflow数据集API的新手,无法完全理解其设计的简单性,因此我需要一些帮助 下面是一个简单的例子 import tensorflow as tf x = tf.placeholder(tf.int32, shape=[]) y = tf.square(x) with tf.Session() as sess: print(sess.run(y, {x: 2})) # result is 4, simple 如果我有一个整数数组arr_x=[2,3,5,8,10],我如

关键错误:logtostderr(python、tensorflow)

我正在尝试实现一个InceptionV3来对图像进行分类。 (python 3.65/tensorflow 1.14.0) 当我运行代码时,我得到以下关键错误:“logtostderr”。 我不知道为什么会发生这个关键错误 我怎样才能解决这个问题 上周,我顺利地运行了这段代码。 但是,问题是昨天突然发生的 with tf.train.MonitoredSession(session_creator=session_creator) as sess: for filenam

Tensorflow 张量流c++;windows bazel生成在读取扩展名文件时出错

嘿,伙计们,我正在安装tensorflow 在Windows 10上的C++,但是我正在运行 尝试执行bazel命令时出现问题 bazel build --config=opt //tensorflow/tools/pip_package:build_pip_package 作为解决问题的基本健全性检查,您需要确保使用推荐的bazel构建工具运行TensorFlow的特定版本,如说明中所述: 例如,TensorFlow v0.9应与Bazel工具v0.11.0配套使用。你能为你的案子提供这些

Tensorflow 是否有一些简单的方法将图像预处理应用于tf.data.Dataset?

我想知道将图像预处理(例如旋转、水平翻转、填充、裁剪等)应用于tf.data API生成的数据的有效方法 我的数据如下所示: import tensorflow as tf // train_data -> numpy array, (50000, 32, 32, 3) // test_data -> numpy array, (10000, 32, 32, 3) train_generator = tf.data.Dataset.from_tensor_slices((trai

Tensorflow Isn';对测试集应用最小-最大缩放是否有危险?

这就是我担心的情况 假设我有一个用最小-最大比例数据训练的模型。我想测试我的模型,所以我还用我在训练阶段使用的旧定标器缩放了测试数据集。然而,我的新测试数据是新的最小值,所以定标器返回负值 据我所知,最小值和最大值并不是那么稳定的值,特别是在不稳定的数据集中,如加密货币数据。在这种情况下,我应该更新我的定标器吗?或者我应该重新训练我的模型吗?理想情况下,你应该先缩放,然后只分为测试和训练。但是,在实时场景中,对具有动态变化的最小值和最大值并具有显著差异的数据使用最小-最大定标器并不可取。我恰好不

从CMake生成定制op tensorflow服务的文件 我是C++的新成员,我接着为CudieCopeEs构建了一个CuppIOPS。根据他们的解释,我将在运行cmake-DSPM\u USE\u BUILTIN\u PROTOBUF=OFF-DSPM\u ENABLE\u TENSORFLOW\u SHARED=ON..后获得一个构建文件。

然而,在我运行完脚本之后,我并没有看到构建文件。我看到——构建文件已写入:/my\u path/service/tensorflow\u service/custom\u ops/sentencepiece\u processor/Build。搜索之后,我发现构建文件是为Bazel创建的,而CMake并没有创建构建文件。如果是这种情况,我如何从CMake获取构建文件?谢谢。问得好。我的同事打开了你提到的那个问题(并给出了一个极好的解决方案)。我们最终需要一个带有tensorflow服务+sent

属性错误:模块';tensorflow_core._api.v2.config';没有属性';列出物理设备和x27;

我在Ubuntu 18.04上使用Tensorflow 2.0。跑步时 tf.config.list_physical_devices('GPU') 我得到了上面的错误。解决方法是什么?运行tf.config.experimental.list\u物理设备('GPU')以查看所有GPU 或 运行tf.config.experimental.list\u physical\u devices(device\u type=None)查看所有设备 您还可以使用tf.test.is\u gpu\u a

TensorFlow 2.0,keras.applications中出错(未知TensorShape上未定义as_list())

关于此错误,有几个问题: ValueError: as_list() is not defined on an unknown TensorShape. 还有一些关于git的相关问题: 然而,我还没有找到一个一致的答案来解释为什么会出现这条消息,也没有找到解决我的具体问题的方法。整个管道过去使用的是tf2.0.0-alpha,现在,在使用CondaConda install tensorflow=2.0 python=3.6安装后,管道中断 简而言之,我使用生成器将图像数据返回到tf.data

Tensorflow 使用K.tile()复制张量

我有张量(None,196),在重塑后,它变成(None,14,14)。 现在,我想把它复制到通道轴,这样形状应该是(无,14,14,512)。最后,我想复制到timestep axis,因此它变成(None,10,14,14512)。我使用以下代码片段完成这些步骤: def replicate(tensor, input_target): batch_size = K.shape(tensor)[0] nf, h, w, c = input_target x = K.reshape

如何将tensorflow模型(例如*.pb格式)转换为armnn(*.armnn格式)

我想把tensorflow模型转换成armnn。我试图从头开始为linux构建armnn。 我尝试了此链接->但无法生成armnn转换器对象文件。 有人能帮我成功地建造它吗 谢谢您可以使用armnn转换器执行相同的任务。转换器只能转换有限的层 对于tenserflow支持,您可以转到下面的链接并浏览图层。 在Url下面,您可以获取armnn转换器的源代码。您可以独立构建它 对于转换,您可以使用如下示例中的命令 ArmnnConverter -f tensorflow-binary -m {p

Tensorflow-重新加载模型并能够继续更新它

我想保存模型/图形并将其重新加载到另一个文件中。然而,我也希望能够在新文件中继续更新模型。到目前为止,我已经成功地重新加载了神经网络的输出,但我无法更新网络 我尝试过这个,但它甚至无法编译 tf.identity(self.train_pi_op, name="train_pi_op") tf.identity(self.train_value_op, name="train_value_op") tf.identity(self.target_update, name="target_upda

Tensorflow 如何加速word2vec相似度计算?

我使用Gensim训练了Word2Vec模型,我有两组单词: S1 = {'','','' ...} S2 = {'','','' ...} 对于S1中的每个单词w1,我想找到与w1最相似的前5个单词。我目前正在这样做: model = w2v_model word_similarities = {} for w1 in S1: similarities = {} for w2 in S2: if w1 in model.wv and w2 in model.

Tensorflow 使用生成器时,model.evaluate()随步骤数变化很大

在Colab中运行tensorflow 2.x及其内部keras版本(tf.keras)。我的模型是用于多类分割的3D卷积UNET(不确定是否相关)。 我已经用传统的方法成功地训练了这个模型(在验证上有足够高的准确性),但是我想做一些扩充来改进它,因此我选择了(手写的)生成器。当我使用发电机时,我看到我的损耗在增加,我的精确度在下降很多(例如:损耗增加了4倍,而不是一些%) 为了定位问题,我尝试加载经过训练的权重,并根据生成器返回的数据计算度量。现在发生的一切毫无意义。我可以看到结果在视觉上是好

Tensorflow Extended(TFX)代码在Google Colab上运行良好,但在本地计算机上运行时抛出错误

我有以下使用Tensorflow Extended(TFX)的代码 当我在GoogleColab上执行此代码时,它运行良好。然而,当我运行这个 回溯(最近一次呼叫最后一次): 文件“tfx_sample.py”,第4行,在 从tfx.components.example\u gen.csv\u example\u gen.component导入CsvExampleGen 文件“/Users/sv/tfx_env/lib/python3.7/site packages/tfx/components

Tensorflow 模型训练方法的比较

假设我有一个数据集,由于Kaggle笔记本环境的限制,我决定将一个大数据集拆分为“块”;A、 B和C。此外,我想训练10个时代的模型。如果我对模型进行如下培训,是否会产生影响: 超过10个时代 B--->10个时代 C--->10个时代 与此方法相比: A--->B--->C[第1纪元]--->A--->B--->C[第2纪元]--->…--->A--->B--->C[第10纪元] 此外,如果我认为存在差异,但我不确定,一种方法比另一种更好吗?对于机器学习,基本上您必须将所有的训练数据放在一起,

Tensorflow 2.3.0的要求是protobuf 3.8.0或更高版本,但Tensorflow仅在protobuf 3.6.0中导入(对于python 3.6.0,windows)

我运行了以下代码():- 显示此错误:-AttributeError:'google.protobuf.pyext.\u message.RepeatedCompositeCo'对象没有属性'append' 因此,我根据tensorflow的要求将protobuf升级到最新版本(protobuf>=3.8.0) 那么tensorflow就不会被导入。 错误为:-导入错误:DLL加载失败:找不到指定的过程。(在导入tensorflow行处) 很明显,我需要protobuf 3.8.0作为运行程序的

加载由Tensorflow1.13中的Tensorflow2.2生成的.pb文件

我使用TensorFlow2.2训练了一个模型,但我必须在tensorflow1.13系统上部署该模型。无法将此系统升级到TensorFlow2,因为还有其他系统需要tensorflow1。但是tensorflow1.13.pb文件无法加载到tensorflow1.13中。此外,在tensorflow2.2中,.pb文件不仅包含tsnorflow1.13中的单个文件,还包含两个额外的文件夹“资产”和“变量” 我设法在tensorflow2.2中使用冻结图以单个文件的形式生成.pb文件,如下所述:

使用C+解析_service _input _receiver _fn推断Tensorflow lite模型的示例+;美国石油学会

我已经遵循Tensorflow2文档,将经过训练的tf.estimator模型转换为tflite模型;为了转换我的模型,首先我必须使用输入\接收器\ fn以保存的\模型格式保存我的模型,然后使用选择\操作标志进行转换: classifier = tf.estimator.LinearClassifier(n_classes=2, model_dir = classifier_dir, feature_columns=features) classifier.train(input_fn = la

Tensorflow 对init有错误的本征张量:调用‘;本征::张量<;双精度,3,1>;::setValues(<;括号内的初始值设定项列表>;)&x2019; #包括 // 稠密矩阵的代数运算(逆,特征值等) #包括 #包括 使用名称空间特征; int main() {本征::张量ε(2,2,2); //张量 //epsilon.setZero(); epsilon.setValues({0.0,1.0},{3.0,4.0},{1.0,2.0});}

以下是错误消息: /home/lzw/matlab_to_C++/cpp_version/test.cpp:37:59:错误:调用“Eigen::Tensor::setValues()”时没有匹配函数 epsilon.setValues({0.0,1.0},{3.0,4.0},{1.0,2.0});您正在传递一个3x2的值元组,其中需要一个2x2x2的元组。您想要哪一个? #include <Eigen/Core> // 稠密矩阵的代数运算(逆,特征值等) #include <

Tensorflow 语音情感识别LSTM模型中的填充掩模

给定了一些.wav音频文件的目录,我提取了它们在3D数组中的特征(批处理、步骤、特征) 在我的例子中,训练数据集是(1883100136)。 基本上,每个音频都经过100次分析(假设为1fps),每次提取136个特征。但是,这些音频文件的长度不同,因此其中一些文件无法分析100次 例如,其中一个音频有50组136个特征作为有效值,因此其余50组用零填充 这是我的模型 def LSTM_model_building(units=200,learning_rate=0.005,epochs=20,d

Tensorflow 使用tf.nn.conv2d_转置重新创建tf.layers.conv2d_转置

我一直在努力使用tf.nn.conv2d_转置来重新创建tf.layers.conv2d_转置的函数。事实上,使用这两个版本相同权重的输出是不同的,所以我犯了一些错误 定义conv2d_层的代码如下所示: slim.conv2d_transpose( input, 1, kernel_size=[3, 3], stride=2, padding="SAME", activation_fn=None, normalizer_fn=None ) 以及定义我的co

如何将大查询中的数据高效地提取到tensorflow中,使其能够扩展

我想在bigquery中存在的数据上训练tensorflow模型 (我试图使用tensor flow 1.15对数据执行kmeans聚类) 我想我还需要在训练前将数据转换为tensorflow向量,使用: tf.convert_to_tensor 我正在使用以下方法查询数据: from google.cloud import bigquery from google.cloud.bigquery.job import QueryJobConfig from google.oauth2.serv

Tensorflow 我如何创建一个FL算法,使用几个客户端的权重?

基于此,我试图写一种新的FL算法。我训练所有客户机并将所有客户机的模型参数发送到服务器,在聚合过程中,服务器将仅对所有客户机的30%的模型参数进行加权平均。作为选择30%客户的模型参数的标准,我想通过使用30%客户的权重_delta对客户的损失_和进行加权平均 下面的代码是对此的修改代码 client\u输出中有以下属性 weights_delta = attr.ib() client_weight = attr.ib() model_output = attr.ib() client_loss

Tensorflow 基于递归网络的电影评论分类

据我所知和研究,数据集中的序列可以有不同的长度;我们不需要填充或截断它们,只要训练过程中的每个批次都包含相同长度的序列 为了实现和应用它,我决定将批量大小设置为1,并在IMDB电影分类数据集上训练我的RNN模型。我添加了我在下面编写的代码 import matplotlib.pyplot as plt import tensorflow as tf from tensorflow.keras.datasets import imdb from tensorflow.keras import Se

Tensorflow 如何在TF2.0上运行TF1.0内置的定制AttentionLSTM类?

我是在一位同事的工作基础上建立的,他在TF1中构建了一个自定义AttentionLSTM层。我想用TF2 我已将顶部的所有导入语句从tensorflow.keras import…更改为。但有两个问题我还没有弄明白如何改变 来自keras.legacy导入接口的 从keras.layers导入 在AttentionLSTM类定义中只使用一次,其他地方不使用 上课时间TM(经常性): @interfaces.legacy\u Recurrency\u支持 定义初始值(自身、单位、, 激活='ta

  1    2   3   4   5   6  ... 下一页 最后一页 共 386 页