近年来,计算机视觉、机器人、机器学习和数据科学一直是推动关键领域技术进步的主要助力。阅读上述任何一个领域的论文或书籍的人多少都曾遇到一些没有听说过的专业术语,比如说一些奇异的术语,如核主成分分析、岭回归、lasso回归、支持向量机(SVM)、拉格朗日乘子、KKT条件等。支持向量机会用某种超级套索来追逐牛群吗?当然不会。但是人们很快就会发现,在伴随着一个新领域的行话背后,隐藏着许多来自最优化理论的“经典”线性代数知识和技术。主要的挑战来了:为了理解和使用机器学习、计算机视觉等工具,一个人需要有坚实的线性代数和最优化理论背景。老实说,一些概率理论和统计数据也应该包括在内,但是我们已经有足够的东西要对付了。许多关于机器学习的书都在讨论上述问题。如果一个人不知道拉格朗日对偶框架,他怎么能理解岭回归问题的对偶变量是什么?同样,如果没有对拉格朗日框架的坚定理解,怎么可能讨论SVM的双重表述呢?
最简单的解决办法是掩盖这些困难。如果一个人只是我们上面提到的技术的消费者,一个cookbook recipe可能就足够了。但是这种方法并不适用于那些真正想做严肃研究并做出重大贡献的人。为此,我们相信一个人必须有线性代数和最优化理论的坚实背景。
这是一个问题,因为这意味着要投入大量的时间和精力研究这些领域,但我们相信坚持不懈会得到充分的回报。我们的主要目标是介绍线性代数和最优化理论的基础,牢记机器学习、机器人学和计算机视觉的应用。
本书由两卷组成,第一卷是线性代数,第二卷是最优化理论和应用,特别是机器学习。这第一卷涵盖“经典”线性代数,直到并包括初级分解和Jordan形式。除了涵盖标准主题,我们还讨论了一些对应用程序很重要的主题。
文末附本书下载地址。
目录