tensorflow当前是最受欢迎的机器学习框架之一。
与其他框架相比,张量流具有自己的优势。
那么,张量流和sklearn的具体优缺点是什么?这将是本文介绍的内容之一。
另外,本文将介绍张量流的损失函数,以提高大家对张量流的理解。
如果您对tensorflow有一定的兴趣,则不妨继续阅读。
1. sklearn和张量流的优缺点目前,在社区中,张量流相对流行。
许多学生会问为什么不使用tensorflow。
两者有什么区别?我认为,主要是从以下几个方面进行比较:1. sklearn的主要定位这是一个通用的机器学习学习库,而tf主要定位于深度学习。
2.在特征工程中,sklearn提供尺寸压缩,特征选择等功能,但这并不意味着tf比sklearn弱。
在传统的机器学习中,sklearn要求用户自行处理数据,例如特征选择,尺寸压缩,格式转换等,但是tf可以在数据训练过程中自行从数据中提取有效特征。
,从而减少了人为干预。
3.在易用性和包装方面,sklearn更高。
在这方面,我认为许多使用过它的人都会很了解它,所以我不会做繁琐的描述。
4.面对不同的项目,sklearn更适合中小型项目,尤其是数据量较小的项目。
此时,更需要手动处理数据并选择适当的项目模型。
这些计算可以直接在CPU上进行。
,没有硬件要求。
相反,tf的应用倾向于更多地关注大量数据,并且通常需要GPU来进行加速计算。
目前,很多公司没有很多数据,可以作为选择的参考。
其次,TensorFlow损失函数声明损失函数需要将系数定义为变量,并将数据集定义为占位符。
可以有一个恒定的学习率或变化的学习率和正则化常数。
在下面的代码中,令m为样本数,n为要素数,P为类别数。
这些全局参数应在代码之前定义:在标准线性回归的情况下,只有一个输入变量和一个输出变量:在多重线性回归的情况下,将有多个输入变量和一个输出变量。
现在,您可以将占位符X的大小定义为[m,n],其中m是样本数,n是要素数。
代码如下:在逻辑回归的情况下,损失函数定义为交叉熵。
输出Y的维数等于训练数据集中的类别数,其中P是类别数:如果要将L1正则化添加到损失中,则代码如下:对于L2正则化,代码如下:因此,您应该已经学习了如何实现不同类型的损失函数。
然后根据手头的回归任务,可以选择相应的损失函数或设计自己的损失函数。
损耗项也可以与L1和L2正则化组合。
上面是“张量流”。
该编辑器带来的相关内容。
通过本文,我希望每个人都对张量流的损失函数有一个清晰的了解。
如果您喜欢这篇文章,不妨继续关注我们的网站,稍后编辑器将带来更多令人兴奋的内容。
最后,感谢大家阅读,祝您有美好的一天!