Python 华为面试手撕代码 + 八股文,机器学习参数调节,损失函数,激活函数,线程、进程和协程

这篇具有很好参考价值的文章主要介绍了Python 华为面试手撕代码 + 八股文,机器学习参数调节,损失函数,激活函数,线程、进程和协程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、手撕代码:力扣原题905

"""
给定一个非负整数数组 A,返回一个由 A 的所有偶数元素组成的数组,后面跟 A 的所有奇数元素。
基础版:你可以返回满足此条件的任何数组作为答案。
进阶版:要求在当前数组上原地完成。

示例:
输入:[3,1,6,5,2,4]
进阶版输出:[4,2,6,5,1,3]
基础版输出:[2,4,6,1,3,5],[4,6,2,3,1,5] 等等 也会被接受
"""
def functions(nums)->list:
    n = len(nums)
    left = 0
    right = n-1
    while left < right:
        if nums[left]%2 == 1 and nums[right]%2 == 1:
            right -= 1
        elif nums[left]%2 ==1:
            nums[left],nums[right] = nums[right],nums[left]
            left += 1
        else:
            left +=1
            right -=1
    return nums
nums = [3,1,6,5,2,4]
print(functions(nums))

二、八股文部分:有点紧张,忘了好多东西

1.深度学习模型优化的方法有哪些?

深度学习模型的优化策略包括以下几个方面:

(1)选择合适的激活函数:激活函数对模型的表达能力和收敛速度有很大影响,常用的激活函数包括ReLU、Sigmoid、Tanh等。

(2)初始化模型参数:模型参数的初始化对模型的收敛速度和性能有很大影响,常用的初始化方法包括Xavier初始化和He初始化等。

(3)批量大小(Batch Size):批量大小决定了每次更新模型参数的样本数,通常较大的批量大小可以使参数更新更加平稳,但也会增加内存和计算负担。

(4)学习率(Learning Rate):学习率是指每次参数更新时的步长,过大的学习率会导致模型震荡或者发散,过小的学习率会导致模型收敛缓慢,通常需要通过交叉验证等方法确定一个合适的学习率。

(5)正则化方法:正则化方法可以避免过拟合,但不同的正则化方法对模型性能和收敛速度的影响不同,需要根据实际情况选择合适的正则化方法。

(6)模型结构:模型结构决定了模型的表达能力和复杂度,需要根据实际问题选择合适的模型结构,常用的模型结构包括全连接网络、卷积神经网络、循环神经网络和注意力机制等。

(7)数据增强(Data Augmentation):数据增强可以增加训练样本量,提高模型的泛化能力常用的数据增强方法包括随机裁剪、随机翻转、添加噪声等。

综上所述,深度学习模型的优化策略需要综合考虑多个因素,通过实验来不断调整和改进模型,以获得最佳的性能和泛化能力。

2.举例说明通过修改模型结构来提高深度学习模型效果的方法?

图片分类:假设我们的任务是对一张图片进行分类,输入是一张大小为224x224x3的RGB图像,输出是这张图片属于1000个类别中的哪一类。

首先,我们可以使用一个预训练的卷积神经网络模型,如ResNet50,在ImageNet数据集上进行预训练,然后对其进行微调,以适应我们的任务。

但是,如果我们发现模型在我们的数据集上的表现并不理想,我们可以修改模型结构以提高其效果。以下是几个可能的修改方法:

(1)添加卷积层

我们可以ResNet50的最后几个卷积块中添加卷积层,以提取更高层次的特征。这样做的好处是,可以减少模型的参数量和计算量,同时提高模型的泛化能力。例如,我们可以在ResNet50的最后一个卷积块后面添加一层1x1的卷积层,然后跟随一个全局平均池化层和一个softmax层,这样就可以得到一个新的模型。

(2)添加注意力机制

我们可以在ResNet50的最后一个卷积块之后添加一个注意力机制,以自适应地聚焦于不同的区域。这样做的好处是,可以提高模型的预测精度和泛化能力。例如,我们可以使用SENet模型中的注意力机制,对ResNet50进行改进,得到一个新的模型。

(3)修改全连接层

我们可以修改ResNet50的全连接层,以适应我们的任务。例如,我们可以将其修改为多层感知机(MLP),以提高模型的表现。这样做的处是,可以提高模型的预测精度和泛化能力。例如,我们可以将ResNet50的全连接层替换为一个全连接层、一个ReLU层和一个dropout层,然后使用softmax层进行分类。

总之,通过添加、修改、组合不同的模型结构,可以提高深度学习模型的效果。需要根据实际问题选择合适的模型结构,并通过实验来不断调整和改进模型。

文本分类:

传统的文本分类方法是使用词袋模型,但是这种方法无法考虑词汇之间的关系,因此准确率和泛化能力有限。而深度学习模型可以从原始文本中自动学习特征,因此可以更准确地进行文本分类。

以卷积神经网络(CNN)为例,可以通过修改模型结构来提高效果。一种方法是使用多层卷积层和池化层来提取更多的特征。另一种方法是使用不同大小的卷积核来捕捉不同长度的文本特征。还可以使用注意力机制来强调关键词汇的重要性。这些改进方法可以提高模型的准确率和泛化能力。

例如,在情感分析任务中,可以使用CNN模型,将不同大小的卷积核应用于输入的文本,以捕捉不同长度的情感特征。此外,可以使用注意力机制,以便在分类过程中更关注重要的词汇。这些修改可以提高模型的性能,并使其更适用于实际应用。

3.传统RNN为什么会出现梯度消失和梯度爆炸?

RNN存在梯度消失和梯度爆炸的问题是因为在模型反向传播时,梯度会随时间步的增加而不断地通过链式法则进行连乘,这会导致梯度指数级地增大或减小,从而使得模型的训练变得非常困难。

具体来说,当梯度值较小时,连乘操作会使得梯度值不断减小,导致模型的参数更新变得非常缓慢,甚至停滞不前,这就是梯度消失的问题。而当梯度值较大时,连乘操作会使得梯度值不断增大,导致模型的参数更新变得非常剧烈,甚至出现不稳定的情况,这就是梯度爆炸的问题。

这些问题主要是由于RNN的循环结构所导致的。在传统的RNN中,每个时间步的输出都会被作为下一个时间步的输入,并且这个传递过程是通过不断地乘以同一个权重矩阵实现的。这种权重共享的结构使得模型的梯度很容易出现消失或爆炸的情况。

为了解决这些问题,研究者们提出了一系列的改进方法,如LSTM和GRU等。这些模型在传统的RNN的基础上加入了门控机制,从而使得模型可以自适应地控制信息的流入和流出,从而缓解了梯度消失和梯度爆炸的问题。

4.损失函数有哪些

损失函数(loss function)是机器学习中的一个重要概念。它是一个用来衡量模型预测结果与真实结果之间差距的函数。通常情况下,损失函数越小,模型的表现就越好。

常见的损失函数包括:

(1)均方误差(mean squared error,MSE):用于回归问题,计算预测值与实际值之间的平方差的平均值。

(2)交叉熵(cross-entropy):用于分类问题,计算预测值与实际值之间的差距。交叉熵越小,模型的表现就越好。

(3)对数似然损失(log loss):用于二元分类问题,计算预测值与实际值之间的差距。

(4)Hinge损失:用于支持向量机(SVM)的分类问题。

(5)KL散度(KL divergence):用于度量两个概率分布之间的差异。

选择合适的损失函数是机器学习中非常重要的一步,它直接影响了模型的表现和训练效果。

5.激活函数有哪些

激活函数在神经网络中起到非常重要的作用,它将神经元的输入信号转化为输出信号,使神经网络能够逼近任意复杂的函数。以下是激活函数在神经网络中的应用场景:

(1)二分类问题:Sigmoid函数和Tanh函数通常用于二分类问题,可以将输出值映射到0-1或-1到1之间,表示正类和负类的概率。

(2)多分类问题:Softmax函数可以将神经网络的输出转化为概率分布,用于多分类问题。

(3)隐藏层:ReLU函数和其变种(例如LeakyReLU)通常用于深度神经网络中的隐藏层,这是因为它们具有稀疏激活性质,能够减少参数数量和计算复杂度。

(4)防止过拟合:Dropout是一种特殊的激活函数,它以一定的概率将神经元的输出置为0,能够防止神经网络过拟合。

(5)提高准确率:ELU函数可以提高神经网络的稳定性和准确率,特别是在深度神经网络中表现更好

6.Transformer比LSTM的优势?

Transformer 相较于 LSTM,在以下方面有所改进:

(1)并行计算:Transformer 中的自注意力机制允许模型在处理输入序列时并行计算,相比之下,LSTM 是顺序计算的,不能很好地利用并行计算。

(2)长距离依赖:Transformer 采用了自注意力机制,允许模型关注输入序列中的任意位置,从而更好地处理长距离依赖关系。而 LSTM 的记忆单元只能接收前一时刻的隐藏状态,难以处理长序列。

(3)计算效率:由于 LSTM 是顺序计算,因此需要大量的计算和存储资源来维护和更新状态。相比之下,Transformer 中的自注意力机制减少了参与计算的参数数量,提高了计算效率。

(4)模型简洁性:LSTM 中需要维护多个状态,包括隐藏状态、细胞状态等,而 Transformer 只需要维护一个输入序列的嵌入表示,使得模型更简洁易懂。

7.协程?

协程,英文Coroutines,是一种比线程更加轻量级的存在。

协程不是进程,也不是线程,它就是一个可以在某个地方挂起的特殊函数,并且可以重新在挂起处继续运行。所以说,协程与进程、线程相比,不是一个维度的概念。

一个进程可以包含多个线程,一个线程也可以包含多个协程,也就是说,一个线程内可以有多个那样的特殊函数在运行。但是有一点,必须明确,一个线程内的多个协程的运行是串行的。如果有多核CPU的话,多个进程或一个进程内的多个线程是可以并行运行的,但是一个线程内的多个协程却绝对串行的,无论有多少个CPU(核)。这个比较好理解,毕竟协程虽然是一个特殊的函数,但仍然是一个函数。一个线程内可以运行多个函数,但是这些函数都是串行运行的。当一个协程运行时,其他协程必须挂起。

python八股,人工智能,Python数据基础,NLP,面试,python,开发语言,机器学习,模型优化

协程的优点:

最大优势就是协程极高的执行效率。因为子程序切换不是线程切换,而是由程序自身控制,因此,没有线程切换的开销,和多线程比,线程数量越多,协程的性能优势就越明显。
不需要多线程的锁机制,因为只有一个线程,也不存在同时写变量冲突,在协程中控制共享资源不加锁,只需要判断状态就好了,所以执行效率比多线程高很多。
因为协程是一个线程执行,那怎么利用多核CPU呢?最简单的方法是多进程+协程,既充分利用多核,又充分发挥协程的高效率,可获得极高的性能。

其他一些重要的点:

协程并没有增加线程数量,只是在线程的基础之上通过分时复用的方式运行多个协程,而且协程的切换在用户态完成,切换的代价比线程从用户态到内核态的代价小很多。
因此在协程调用阻塞IO操作的时候,操作系统会让线程进入阻塞状态,当前的协程和其它绑定在该线程之上的协程都会陷入阻塞而得不到调度,这往往是不能接受的。
因此在协程中不能调用导致线程阻塞的操作。也就是说,协程只有和异步IO结合起来,才能发挥最大的威力。
协程对计算密集型的任务没有太大的好处,计算密集型的任务本身不需要大量的线程切换,因为协程主要解决以往线程或者进程上下文切换的开销问题,所以协程主要对那些I/O密集型应用更好。
协程只有和异步IO结合起来才能发挥出最大的威力。

8.Python 中的 GIL

GIL 是 Python 的全局解释器锁,同一进程中假如有多个线程运行,一个线程在运行 Python 程序的时候会占用 Python 解释器(加了一把锁即 GIL),使该进程内的其他线程无法运行,等该线程运行完后其他线程才能运行。如果线程运行过程中遇到耗时操作,则解释器锁解开,使其他线程运行。所以在多线程中,线程的运行仍是有先后顺序的,并不是同时进行。多线程无法在多核cpu上运行。

9.什么是异步非阻塞
同步异步指的是调用者与被调用者之间的关系。

所谓同步,就是在发出一个功能调用时,在没有得到结果之前,该调用就不会返回,一旦调用返回,就得到了返回值;
异步的概念和同步相对,调用在发出之后,这个调用就直接返回了,所以没有返回结果。当该异步功能完成后,被调用者可以通过状态、通知或回调来通知调用者。
阻塞非阻塞是线程或进程之间的关系。

阻塞调用是指调用结果返回之前,当前线程会被挂起(如遇到io操作)。调用线程只有在得到结果之后才会返回。函数只有在得到结果之后才会将阻塞的线程激活
非阻塞和阻塞的概念相对应,非阻塞调用指在不能立刻得到结果之前也会立刻返回,同时该函数不会阻塞当前线程

10.函数式编程
函数式编程是一种抽象程度很高的编程范式,纯粹的函数式编程语言编写的函数没有变量,因此,任意一个函数,只要输入是确定的,输出就是确定的,这种纯函数称之为没有副作用。而允许使用变量的程序设计语言,由于函数内部的变量状态不确定,同样的输入,可能得到不同的输出,因此,这种函数是有副作用的。由于 Python 允许使用变量,因此,Python 不是纯函数式编程语言。

函数式编程的一个特点就是,允许把函数本身作为参数传入另一个函数,还允许返回一个函数!

11.python 多线程和多进程包:

多线程:threading

多进程:multiprocessing文章来源地址https://www.toymoban.com/news/detail-702082.html

到了这里,关于Python 华为面试手撕代码 + 八股文,机器学习参数调节,损失函数,激活函数,线程、进程和协程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 前端常见面试八股文

    前端常见面试八股文

    1、H5新增标签有哪些? 一、语义化标签 header、footer、nav、aside、section、article 语义化的意义? 1、更适合搜索引擎的爬虫爬取有效的信息,利于SEO。 2、对开发团队很友好,增加了标签的可读性,结构更加的清晰,便于团队的开发和维护。 二、多媒体标签 视频标签:video 属性

    2023年04月08日
    浏览(20)
  • 前端面试八股文汇总

    在HTML页面中的所有元素都可以看成是一个盒子 盒子的组成:内容content、内边距padding、边框border、外边距margin 盒模型的类型: 标准盒模型 margin + border + padding + content IE盒模型 margin + content(border + padding) 控制盒模型的模式:box-sizing:content-box(默认值,标准盒模型)、border-b

    2024年02月04日
    浏览(14)
  • 前端面试八股文

    1.1、http和https的基本概念 http: 是一个客户端和服务器端请求和应答的标准(TCP),用于从 WWW 服务器传输超文本到本地浏览器的超文本传输协议。 https: 是以安全为目标的 HTTP 通道,即 HTTP 下 加入 SSL 层进行加密。其作 用是:建立一个信息安全通道,来确保数据的传输,确保

    2024年02月02日
    浏览(15)
  • Java 面试八股文

    参考: 2023年 Java 面试八股文(20w字)_json解析失败_leader_song的博客-CSDN博客

    2024年02月13日
    浏览(16)
  • 吃透Redis面试八股文

    Redis连环40问,绝对够全! Redis( Remote Dictionary Server )是一个使用 C 语言编写的,高性能非关系型的键值对数据库。与传统数据库不同的是,Redis 的数据是存在内存中的,所以读写速度非常快,被广泛应用于缓存方向。Redis可以将数据写入磁盘中,保证了数据的安全不丢失,

    2023年04月24日
    浏览(16)
  • Golang八股文面试题

    Golang八股文面试题

    TCP实现可靠传输依靠的有序列号,自动重传,滑动窗口,确认应答等机制

    2024年04月15日
    浏览(16)
  • Java面试必备八股文

    Java面试必备八股文

    1.1)Java有哪几种数据类型 基本数据类型:byte(1字节) short(2字节) int(4字节) long(8字节) float(4字节) double(8字节) char(2字节) boolean(1字节) 引用数据类型:String 类 接口 抽象类 枚举 数组 1.2)JVM、JRE和JDK的关系 JVM指的是Java的虚拟机,Java程序需要运行在虚拟机上

    2023年04月08日
    浏览(21)
  • 前端基础面试题八股文

    前端基础面试题八股文

    代码结构: 使页面在没有css的情况下,也能够呈现出好的内容结构 有利于SEO: 爬虫根据标签来分配的权重,因此可以和搜索引擎建立良好的沟通,帮助爬虫抓取更多的有效信息 方便其他设备解析: 如屏幕阅读器、盲人阅读器、移动设备等,以有意义的方式来渲染页面 便于

    2024年02月07日
    浏览(12)
  • 吃透SpringMVC面试八股文

    SpringMVC是一种基于 Java 的实现MVC设计模型的请求驱动类型的轻量级Web框架,属于Spring框架的一个模块。 它通过一套注解,让一个简单的Java类成为处理请求的控制器,而无须实现任何接口。同时它还支持RESTful编程风格的请求。 MVC的全名是 Model View Controller ,是模型(model)-视图

    2023年04月20日
    浏览(11)
  • 【八股文篇】Java 面试题

    【八股文篇】Java 面试题

    👉 博主介绍 : 博主从事应用安全和大数据领域,有8年研发经验,5年面试官经验,Java技术专家,WEB架构师,阿里云专家博主,华为云云享专家,51CTO TOP红人 Java知识图谱点击链接: 体系化学习Java(Java面试专题) 💕💕 感兴趣的同学可以收藏关注下 , 不然下次找不到哟

    2024年02月12日
    浏览(18)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包