`
m635674608
  • 浏览: 5097870 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

Ambari——大数据平台的搭建利器

 
阅读更多

Ambari 是什么

Ambari 跟 Hadoop 等开源软件一样,也是 Apache Software Foundation 中的一个项目,并且是顶级项目。目前最新的发布版本是 2.0.1,未来不久将发布 2.1 版本。就 Ambari 的作用来说,就是创建、管理、监视 Hadoop 的集群,但是这里的 Hadoop 是广义,指的是 Hadoop 整个生态圈(例如 Hive,Hbase,Sqoop,Zookeeper 等),而并不仅是特指 Hadoop。用一句话来说,Ambari 就是为了让 Hadoop 以及相关的大数据软件更容易使用的一个工具。

说到这里,大家就应该明白什么人最需要 Ambari 了。那些苦苦花费好几天去安装、调试 Hadoop 的初学者是最能体会到 Ambari 的方便之处的。而且,Ambari 现在所支持的平台组件也越来越多,例如流行的 Spark,Storm 等计算框架,以及资源调度平台 YARN 等,我们都能轻松地通过 Ambari 来进行部署。

Ambari 自身也是一个分布式架构的软件,主要由两部分组成:Ambari Server 和 Ambari Agent。简单来说,用户通过 Ambari Server 通知 Ambari Agent 安装对应的软件;Agent 会定时地发送各个机器每个软件模块的状态给 Ambari Server,最终这些状态信息会呈现在 Ambari 的 GUI,方便用户了解到集群的各种状态,并进行相应的维护。详细的操作和介绍会在后续章节介绍。

Ambari 的安装

安装准备

关 于 Ambari 的安装,目前网上能找到两个发行版,一个是 Apache 的 Ambari,另一个是 Hortonworks 的,两者区别不大。这里就以 Apache 的 Ambari 2.0.1 作为示例。本文使用三台 Redhat 6.6 作为安装环境(目前测试验证结果为 Ambari 在 Redhat 6.6 的版本上运行比较稳定),三台机器分别为 zwshen37.example.com、zwshen38.example.com、zwshen39.example.com。zwshen37 计划安装为 Ambari 的 Server,另外两台为 Ambari Agent。

安装 Ambari 最方便的方式就是使用公共的库源(public repository)。有兴趣的朋友可以自己研究一下搭建一个本地库(local repository)进行安装。这个不是重点,所以不在此赘述。在进行具体的安装之前,需要做几个准备工作。

  1. SSH 的无密码登录;
    Ambari 的 Server 会 SSH 到 Agent 的机器,拷贝并执行一些命令。因此我们需要配置 Ambari Server 到 Agent 的 SSH 无密码登录。在这个例子里,zwshen37 可以 SSH 无密码登录 zwshen38 和 zwshen39。
  2. 确保 Yum 可以正常工作;
    通过公共库(public repository),安装 Hadoop 这些软件,背后其实就是应用 Yum 在安装公共库里面的 rpm 包。所以这里需要您的机器都能访问 Internet。
  3. 确保 home 目录的写权限。
    Ambari 会创建一些 OS 用户。
  4. 确保机器的 Python 版本大于或等于 2.6.(Redhat6.6,默认就是 2.6 的)。

以上的准备工作完成后,便可以真正的开始安装 Ambari 了。

安装过程

首先需要获取 Ambari 的公共库文件(public repository)。登录到 Linux 主机并执行下面的命令(也可以自己手工下载):

将下载的 ambari.repo 文件拷贝到 Linux 的系统目录/etc/yum.repos.d/。拷贝完后,我们需要获取该公共库的所有的源文件列表。依次执行以下命令。

yum clean all
yum list|grep ambari

如图 1 所示:

图 1. 获取公共库源文件列表

图 1. 获取公共库源文件列表

如果可以看到 Ambari 的对应版本的安装包列表,说明公共库已配置成功。然后就可以安装 Ambari 的 package 了。执行下面的命令安装 Ambari Server 到该机器。

yum install ambari-server

待安装完成后,便需要对 Ambari Server 做一个简单的配置。执行下面的命令。

amari-server setup

在这个交互式的设置中,采用默认配置即可。Ambari 会使用 Postgres 数据库,默认会安装并使用 Oracle 的 JDK。默认设置了 Ambari GUI 的登录用户为 admin/admin。并且指定 Ambari Server 的运行用户为 root。

简单的 setup 配置完成后。就可以启动 Ambari 了。运行下面的命令。

ambari-server start

当成功启动 Ambari Server 之后,便可以从浏览器登录,默认的端口为 8080。以本文环境为例,在浏览器的地址栏输入 http://zwshen37.example.com:8080,登录密码为 admin/admin。登入 Ambari 之后的页面如下图。

图 2. Ambari 的 welcome 页面

图 2. Ambari 的 welcome 页面

点击查看大图

至此,Ambari Server 就安装完成了。

部署一个 Hadoop2.x 集群

到这一节,我们将可以真正地体验到 Ambari 的用武之地,以及它所能带来的方便之处。

登录 Ambari 之后,点击按钮“Launch Install Wizard”,就可以开始创建属于自己的大数据平台。

第一步,命名集群的名字。本环境为 bigdata。

第二步,选择一个 Stack,这个 Stack 相当于一个 Hadoop 生态圈软件的集合。Stack 的版本越高,里面的软件版本也就越高。这里我们选择 HDP2.2,里面的对应的 Hadoop 版本为 2.6.x。

第三步,指定 Agent 机器(如果配置了域,必须包含完整域名,例如本文环境的域为 example.com),这些机器会被安装 Hadoop 等软件包。还记得在安装章节中提到的 SSH 无密码登陆吗,这里需要指定当时在 Ambari Server 机器生成的私钥(ssh-keygen 生成的,公钥已经拷贝到 Ambari Agent 的机器,具体的 SSH 无密码登录配置,可以在网上很容易找到配置方法,不在此赘述)。另外不要选择“Perform manual registration on hosts and do not use SSH“。因为我们需要 Ambari Server 自动去安装 Ambari Agent。具体参见下图示例。

图 3. 安装配置页面

图 3. 安装配置页面

点击查看大图

第四步,Ambari Server 会自动安装 Ambari Agent 到刚才指定的机器列表。安装完成后,Agent 会向 Ambari Server 注册。成功注册后,就可以继续 Next 到下一步。

第五步,这里我们终于看到跟 Hadoop 有关的名词了。在这一步,我们需要选择要安装的软件名称。本文环境选择了 HDFS,YARN + MapReduce2,Zoopkeeper,Storm 以及 Spark。选的越多,就会需要越多的机器内存。选择之后就可以继续下一步了。这里需要注意某些 Service 是有依赖关系的。如果您选了一个需要依赖其他 Service 的一个 Service,Ambari 会提醒安装对应依赖的 Service。参见下图。

图 4. Service 选择页面

图 4. Service 选择页面

点击查看大图

第六步和第七步,分别是选择安装软件所指定的 Master 机器和 Slave 机器,以及 Client 机器。这里使用默认选择即可(真正在生产环境中,需要根据具体的机器配置选择)。

第八步,就是 Service 的配置。绝大部分配置已经有默认值,不需要修改。初学者,如果不需要进行调优是可以直接使用默认配置的。有些 Service 会有一些必须的手工配置项,则必须手动输入,才可以下一步。本文环境直接使用默认配置。

第九步,Ambari 会总结一个安装列表,供用户审阅。这里没问题,就直接下一步。

第十步,Ambari 会开始安装选择的 Service 到 Ambari Agent 的机器(如下图)。这里可能需要等好一会,因为都是在线安装。安装完成之后,Ambari 就会启动这些 Service。

图 5. Service 的安装进度

图 5. Service 的安装进度

点击查看大图

安装完成之后,就可以查看 Ambari 的 Dashboard 了。例如下图。

图 6. Ambari 的 Dashboard 页面

图 6. Ambari 的 Dashboard 页面

点击查看大图

至此,您专属的 bigdata 集群已经安装完成。

利用 Ambari 管理 Hadoop 集群

在上一章节中,我们已经体验到 Ambari 为 Hadoop 生态圈的安装提供的便利。这已经省去了很多的人力成本。尤其是对大数据圈子的测试人员来说,自动化就容易了很多。下面我们看看如何通过 Ambari 管理 Hadoop 的集群。

Service Level Action(服务级别的操作)

首 先我们进到 Ambari 的 GUI 页面,并查看 Dashboard。在左侧的 Service 列表中,我们可以点击任何一个您想要操作的 Service。以 MapReduce2 为例(Hadoop 这里的版本为 2.6.x,也就是 YARN+HDFS+MapReduce),当点击 MapReduce2 后,就会看到该 Service 的相关信息,如下图。

图 7. MapRduce2 的 Service 页面

图 7. MapRduce2 的 Service 页面

点击查看大图

中间部分是 Service 的模块(Component)信息,也就是该 Service 有哪些模块及其数目。右上角有个 Service Action 的按钮,当点击该按钮后就可以看到很多 Service 的控制命令。也就是通过这些 Service Action 命令,对 Service 进行管理的。

可能有的人会说,装完 Hadoop 的集群后,并不知道这个集群是不是可用。这时候我们就可以运行一个“Run Service Check”。点击这个命令后,就会出现下图的进度显示。

图 8. MapReduce Service Check

图 8. MapReduce Service Check

点击查看大图

其实这里就是通过运行一个经典的 MapReduce Wordcount 实例,来检查 MapReduce 是不是正常。对于 Service Action 里面的 Start、Stop 的含义就是,启停整个集群所有该 Service 的模块(也就是 Service level)。当执行进度页面弹出来的时候,我们可以点击 Operations 的名字,进而查看每个机器的进度和运行 log。如下图 Stop 的操作。

图 9. 命令执行进度 1

图 9. 命令执行进度

点击查看大图

图 10. 命令执行进度 2

图 10. 命令执行进度 2

点击查看大图

维护模式(Maintenance Mode)以及如何添加一个自定义的命令到 Service Action,我会在后续的连载中进行介绍。

Host Level Action(机器级别的操作)

首先,我们回到 Ambari 的 Dashboard 页面。页面最上面中间的地方有个 Hosts,点击这个标签,我们就可以看到 Ambari 所管理的机器列表。如下图。

图 11. Ambari 的机器列表

图 11. Ambari 的机器列表

点击查看大图

图片中红色的数字是警告信息(Ambari Alert),这里我们先略过它,后续文章再做介绍。先看左上角的 Actions,点击这个按钮,就可以看到 Host level Action 的选项了,其实和 Service Level 是类似的,只是执行的范围不一样。如下图。当用户选择 All Hosts -> Hosts -> Start All Components,Ambari 就会将所有 Service 的所有模块启动。

图 12. 启动所有 Service 的所有模块

图 12. 启动所有 Service 的所有模块

如果用户选择 All Hosts-> DataNodes -> Stop,Ambari 就会把所有机器的 DataNode 这个模块关闭。如下图。

图 13. 关闭所有的 DataNode 模块

图 13. 关闭所有的 DataNode 模块

Component Level Action(模块级别的操作)

上面的图中,我们可以看到 Decommisson、Recommission。这些命令其实是自定义的模块级别的操作(Component Level Action)。不过上图中命令一旦执行,就是对多个机器的同个模块执行。

我们现在尝试只对单个机器的一个模块(Component)执行。首先我们回到 Hosts 的页面。这时候点击机器名,我们就会进入到该机器的 Component 页面。如下图。

图 14. Component 页面

图 14. Component 页面

这时候只要点击每个 Component(模块)后面的按钮,就可以看到该模块的操作命令了。例如,我们可以停掉这台机器的 DataNode 模块。

图 15. 停止 DataNode 模块 1

图 15. 停止 DataNode 模块

图 16. 停止 DataNode 模块 2

图 16. 停止 DataNode 模块 2

点击查看大图

关于如何给一个模块添加自定义的命令,也会在后续的连载中做介绍。

这 一章节中,主要介绍了如何通过三种级别的 Action(操作)管理 Hadoop 的集群。在 Ambari 中已经加入了很多自定义的 Action 去做一些特殊的操作。如果对 Hadoop 生态圈的软件足够熟悉,就可以尝试更多的 Action。可能有的人会问,Ambari 可不可以扩容集群。答案当然是可以的。Ambari 可以给自身的集群添加机器(也就是添加 Ambari Agent),然后将 Service 的模块安装在新的机器,也可以把某些模块安装到已有的其他的机器。篇幅有限,将在后续的连载中介绍更多的内容。

Ambari 的架构和工作原理

Ambari 基本的架构和工作原理如下图 17 所示。

图 17. Ambari 的基本架构

图 17. Ambari 的基本架构

Ambari Server 会读取 Stack 和 Service 的配置文件。当用 Ambari 创建集群的时候,Ambari Server 传送 Stack 和 Service 的配置文件以及 Service 生命周期的控制脚本到 Ambari Agent。Agent 拿到配置文件后,会下载安装公共源里软件包(Redhat,就是使用 yum 服务)。安装完成后,Ambari Server 会通知 Agent 去启动 Service。之后 Ambari Server 会定期发送命令到 Agent 检查 Service 的状态,Agent 上报给 Server,并呈现在 Ambari 的 GUI 上。

Ambari Server 支持 Rest API,这样可以很容易的扩展和定制化 Ambari。甚至于不用登陆 Ambari 的 GUI,只需要在命令行通过 curl 就可以控制 Ambari,以及控制 Hadoop 的 cluster。具体的 API 可以参见 Apache Ambari 的官方网页 API reference。

对于安全方面要求比较苛刻的环境来说,Ambari 可以支持 Kerberos 认证的 Hadoop 集群。

扩展 Ambari 管理一个自定义的 Service

首先,我们需要规划自定义的 Service 属于哪个 Stack(当然 Stack 也是可以自定义的)。这里为了快速创建一个新的 Service,而且我们已经安装了 HDP 2.2 的 Stack,所以就将自定义的 Service 放在 HDP 2.2 之下。

第一步,首先在 Ambari Service 机器上找到 HDP 2.2 Stack 的目录,如下图所示。

图 18. HDP 2.2 的目录

图 18. HDP 2.2 的目录

第 二步,需要创建一个 Service 目录,我们这里用“SAMPLE”作为目录名。并在 SAMPLE 底下创建 metainfo.xml。示例代码如下。主要解释下 xml 代码中的两个字段 category 和 cardinality。category 指定了该模块(Component)的类别,可以是 MASTER、SLAVE、CLIENT。Cardinality 指的是所要安装的机器数,可以是固定数字 1,可以是一个范围比如 1-2,也可以是 1+,或者 ALL。如果是一个范围的时候,安装的时候会让用户选择机器。另外这里有关 Service 和 Component 的 name 配置要用大写,小写有时候会有问题。Displayname 可以随意设置。

<?xml version="1.0"?>
<metainfo>
 <schemaVersion>2.0</schemaVersion>
 <services>
 <service>
 <name>SAMPLE</name>
 <displayName>My Sample</displayName>
 <comment>My v1 Sample</comment>
 <version>1.0</version>
 <components>
 <component>
 <name>MYMASTER</name>
 <displayName>My Master</displayName>
 <category>MASTER</category>
 <cardinality>1</cardinality>
 <commandScript>
 <script>scripts/master.py</script>
 <scriptType>PYTHON</scriptType>
 <timeout>5000</timeout>
 </commandScript>
 </component>
 <component>
 <name>MYSALVE</name>
 <displayName>My Slave</displayName>
 <category>SLAVE</category>
 <cardinality>1+</cardinality>
 <commandScript>
 <script>scripts/slave.py</script>
 <scriptType>PYTHON</scriptType>
 <timeout>5000</timeout>
 </commandScript>
 </component>
 </components>
 <osSpecifics>
 <osSpecific>
 <osFamily>any</osFamily>
 </osSpecific>
 </osSpecifics>
 </service>
 </services>
</metainfo>

第三步,需要创建 Service 的控制脚本。这里我们需要在 SAMPLE 底下创建一个 package 目录,然后在 package 底下创建目录 scripts ,进而创建 master.py 和 slave.py。这里需要保证脚本路径和上一步中 metainfo.xml 中的配置路径是一致的。这两个 Python 脚本是用来控制 Master 和 Slave 模块的生命周期。脚本中函数的含义也如其名字一样:install 就是安装调用的接口;start、stop 分别就是启停的调用;Status 是定期检查 component 状态的调用;Configure 是安装完成配置该模块的调用。示例目录结构如下图。

图 19. Sample Service 的目录结构

图 19. Sample Service 的目录结构

Python 脚本的示例代码:

Master.py:

import sys, os
from resource_management import *
from resource_management.core.exceptions import ComponentIsNotRunning
from resource_management.core.environment import Environment
from resource_management.core.logger import Logger

class Master(Script):
 def install(self, env):
 print "Install My Master"

 def configure(self, env):
 print "Configure My Master"

 def start(self, env):
 print "Start My Master"

 def stop(self, env):
 print "Stop My Master"

 def status(self, env): 
 print "Status..."

if __name__ == "__main__":
 Master().execute()

Slave.py:

import sys, os
from resource_management import *
from resource_management.core.exceptions import ComponentIsNotRunning
from resource_management.core.environment import Environment
from resource_management.core.logger import Logger

class Slave(Script):
 def install(self, env):
 print "Install My Slave"

 def configure(self, env):
 print "Configure My Slave"

 def start(self, env):
 print "Start My Slave"

 def stop(self, env):
 print "Stop My Slave"
 def status(self, env): 
 print "Status..."

if __name__ == "__main__":
 Slave().execute()

第四步,需要重启 Ambari Server。因为 Ambari Server 只有在重启的时候才会读取 Service 和 Stack 的配置。命令行执行:

ambari-server restart

第五步,登录 Ambari 的 GUI,点击左下角的 Action,选择 Add Service。如下图:

图 20. Add Service 按钮

图 20. Add Service 按钮

这时候就可以看到我们自定义的 Service:SAMPLE。如下图:

图 21. Sample Service 列表

图 21. Sample Service 列表

选 择左侧 My Sample 后,就可以一路 Next 了,这个过程其实和我们在搭建 Hadoop2.x 集群的时候是类似的。由于这个 Service 没有真的安装包,所以安装过程会非常的快,启动命令也没有真正的逻辑,所以启动过程也是很快的。等最后点击完 Complete,整个安装过程也就结束了。再回到 Ambari 的 Dashboard 的时候,我们就可以看到这个 My Sample 了,如下图:

图 22. My Sample 的 Service 页面

图 22. My Sample 的 Service 页面

点击查看大图

到此就可以和第四节中管理 Hadoop 集群一样管理我们的 My Sample。例如下图,Stop 我们的 My Sample。

图 23. Stop Sample 页面 1

图 23. Stop Sample 页面 1

图 24. Stop Sample 页面 2

图 24. Stop Sample 页面 2

图 25. Stop Sample 页面 3

图 25. Stop Sample 页面 3

进阶的篇幅中,将会探讨如何给我们的 My Sample 自定义一些 Actions,以及 Action 之间的依赖关系如何定义。篇幅有限,这里就先到此为止。希望以上的介绍能够燃起大家对 Ambari 的热情。

总结

大 数据与云计算可谓是如今数据中心中最火的两项技术领域,几乎所有的 IT 服务商都想在这两项技术中有所建树。相信 Ambari 可以帮助一些 Hadoop 的初学者。长远看来,大数据的发展离不开云计算,云计算中 IaaS 可谓已经很成熟,并且价格低廉。这时候许多公司将目光聚集在了 PaaS。大数据的流行更是加速了相关 PaaS 产品的发展,而 Ambari 的出现必然可以拉近 IaaS 和 PaaS 的距离。也就是说有了 Ambari,或许再加上 Docker,那么快速从 IaaS 演进到 PaaS 就显得不是那么困难了。

当然这里 Ambari 要跟 IaaS 更好的切合,还有个对手那就是 Sahara。它是另一个土生土长的 OpenStack 的子项目,其目的也是为了在 Openstack 上面快速搭建 Hadoop 等集群。期望着这些项目能够快速成长,将来对大家都有所帮助。

 

http://www.ibm.com/developerworks/cn/opensource/os-cn-bigdata-ambari/

分享到:
评论

相关推荐

    大数据自动化部署,包括自动化部署hadoop、hive、hbase、spark、storm等等一系列组件.zip

    AutomaticDeploy大数据自动化部署,包括自动化部署hadoop、hive、hbase、spark、storm等等一系列组件自动化部署参考资料https://gitee.com/lucky110100/sloth/tree/masterAmbari——大数据平台的搭建、维护利器...

    BigData_AutomaticDeploy:大数据自动化部署,包括自动化部署hadoop、hive、hbase、spark、storm等等一系列组件

    BigData_AutomaticDeploy大数据自动化部署,包括自动化部署hadoop、hive、hbase、spark、storm等等一系列组件自动化部署参考资料:Ambari——大数据平台的搭建、维护利器:

    辩证法在处理形而上学的“同一性”问题时有何独特之处?辩证法与传统逻辑和本体论有何根本性的差异?.pdf

    辩证法在处理形而上学的“同一性”问题时有何独特之处?辩证法与传统逻辑和本体论有何根本性的差异?

    cmd脚本-bat批处理-jscript-drivesInfoJS.zip

    cmd脚本-bat批处理-jscript-drivesInfoJS.zip

    cmd脚本-bat批处理-7.IF-ERRORLEVEL.zip

    cmd脚本-bat批处理-7.IF-ERRORLEVEL.zip

    cmd-bat-批处理-脚本-7.IF-ERRORLEVEL.zip

    cmd-bat-批处理-脚本-7.IF-ERRORLEVEL.zip

    深度学习中基于雷达和PPG数据的生命体征信号提取及四种神经网络模型应用

    内容概要:本文探讨了利用深度学习技术从雷达和PPG(光电容积脉搏波)数据中提取生命体征信号的方法。文中详细介绍了四种不同的神经网络模型:纯CNN、带有残差结构的ResNet、LSTM以及Transformer变体。每种模型都针对特定的数据特点进行了优化,如CNN适用于处理频谱图的时空特征,而LSTM则擅长捕捉时序动态。此外,还提供了数据预处理方法,包括短时傅里叶变换(STFT)、幅度归一化等。通过对这些模型的实际测试,作者分享了它们各自的优缺点及应用场景。 适合人群:对深度学习和生物医学工程感兴趣的科研人员和技术开发者,尤其是那些希望将深度学习应用于生命体征监测领域的研究人员。 使用场景及目标:① 使用深度学习技术从雷达和PPG数据中提取生命体征信号;② 探索并比较不同神经网络模型的效果;③ 提供实用的代码片段和数据预处理方法,帮助读者快速上手。 其他说明:本文不仅提供了理论分析,还包括具体的代码实现,使读者能够更好地理解和应用所介绍的技术。同时,作者还分享了自己的实践经验,为后续的研究提供了宝贵的参考。

    Amesim在HEV热管理和电池热管理中的应用及大厂培训模型解析

    内容概要:本文详细介绍了Amesim这款工程仿真软件在混合动力电动汽车(HEV)热管理和电池热管理中的应用。首先强调了Amesim学习资料的重要性,它能帮助工程师掌握建模、仿真和分析能力。接着阐述了大厂提供的Amesim培训模型优势,如资深工程师指导、结合实际案例等。最后深入探讨了HEV热管理及电池热管理的学习资料,涵盖基本原理、组成部件、工作过程、优化策略和技术应用案例等内容。 适合人群:对汽车工程尤其是混合动力电动汽车热管理系统感兴趣的工程师、研究人员及学生。 使用场景及目标:①希望通过Amesim提高自身建模和仿真实践能力的人群;②希望了解HEV热管理和电池热管理核心技术及其应用场景的技术爱好者。 其他说明:鼓励读者积极参与到Amesim的学习中来,利用大厂提供的优质培训资源,紧跟行业发展步伐,共同推动汽车工程技术进步。

    基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)

    基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计),个人经导师指导并认可通过的高分设计项目,评审分98分,项目中的源码都是经过本地编译过可运行的,都经过严格调试,确保可以运行!主要针对计算机相关专业的正在做大作业、毕业设计的学生和需要项目实战练习的学习者,资源项目的难度比较适中,内容都是经过助教老师审定过的能够满足学习、使用需求,如果有需要的话可以放心下载使用。 基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分毕业设计)基于Python实现的手写数字识别代码和论文报告文档(高分

    校园二手交易平台数据库课程设计及数据库创建代码

    在 IT 领域,数据库设计是开发复杂系统的关键环节,校园二手交易平台项目就是一个典型案例。该项目通过实际应用数据库技术,帮助学习者将理论知识转化为实践能力。校园二手交易平台包含用户注册、商品发布、交易管理、评价系统等多个功能模块,这些模块都需要与数据库交互,存储和检索大量数据。因此,数据库设计必须确保数据的一致性、完整性和高效性。 项目的核心文件是“cj.sql”,这是一个 SQL 脚本文件,用于在 MySQL 数据库中创建表结构。文件中包含一系列的 CREATE TABLE 语句,定义了用户表(user)、商品表(product)、交易表(transaction)等表格。例如,用户表包含用户 ID、用户名、密码、联系方式等字段,商品表包含商品 ID、商品名、价格、描述等信息。为保证数据一致性,用户表通常设置主键约束(如用户 ID),确保每个用户有唯一标识。密码字段可能经过加密处理,以保护用户隐私。此外,商品表中可能设置外键约束,如用户 ID,引用用户表的主键,表示商品所属用户。 项目源码压缩包为“sms.rar”,解压后可导入 Eclipse 开发环境。开发者可能使用了 Spring Boot、MyBatis 等框架,通过 ORM 技术将 Java 对象与数据库表对应,简化数据库访问复杂性。运行项目前,需在 MySQL 中导入“cj.sql”文件,创建并初始化数据库,并在用户表中插入至少一条管理员账号记录,以便后续测试和管理。这一步体现了数据库初始化过程,是项目运行的必要条件。 该数据库课程设计项目不仅涵盖数据库基础知识,如表设计、SQL 语法,还涉及 Web 应用开发和数据库操作实践。通过该项目,学生能够深入理解数据库在实际应用中的重要性,提升数据库设计和编程能力,同时学会将数据库与后端开发紧密结合,实现数据的有效管理和高效利用。

    西门子S7-200PLC与MCGS组态在糖果包装控制系统中的应用及优势 PLC

    内容概要:本文介绍了西门子S7-200PLC(可编程逻辑控制器)和MCGS(人机界面)组态软件在糖果包装控制系统中的应用。S7-200PLC以其高可靠性和灵活性,实现了物料输送、包装机运行、封口等控制逻辑;MCGS组态软件则提供了实时监控和友好的人机交互界面,使操作员能方便地调整参数和查看设备状态。两者结合提高了生产效率,确保了产品质量的稳定性和安全性。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是关注PLC和HMI集成应用的专业人士。 使用场景及目标:适用于需要提升生产线自动化水平的企业,特别是食品加工行业。主要目标是优化生产流程,提高生产效率,保障产品品质。 其他说明:文中详细阐述了S7-200PLC的功能特点以及MCGS组态软件的操作方法,强调了两者的协同作用对于现代制造业的重要性。

    cmd-bat-批处理-脚本-mshta-btoa.zip

    cmd-bat-批处理-脚本-mshta-btoa.zip

    柔性作业车间调度问题经典算例汇总

    柔性作业车间调度问题(FJSP)是生产计划与控制领域的一个关键研究方向,主要研究如何在多台不同加工能力的机器上高效安排一系列作业,以实现最小化总体完工时间、最大完工时间等优化目标。资料中的“柔性作业车间调度算例汇总(FJSP算例).zip”文件包含了三个主要数据集,用于测试和验证调度算法。其中,Brandimarte_DATA 数据集由 Brandimarte 提供,包含多种规模和复杂性的 FJSP 实例,涵盖作业工序顺序、加工时间及机器分配等信息,可用于分析调度策略在实际生产中的表现,评估算法效率与适用性。DAUZERE_DATA 数据集由 Dauzère-Pérès 提供,包含更具挑战性的实例,涉及非均匀机器能力、加工时间不确定性等因素,有助于测试算法的鲁棒性和适应性。Hurink_DATA 数据集由 Hurink 等人创建,包含更复杂情况,如优先级约束、资源限制或时间窗口等,可用于评估算法在复杂约束下的性能。这些数据集常用于比较和评估新调度算法。研究者解析数据后,运用算法生成调度方案,并与最优解(若已知)对比,以评估算法效果。它们也用于基准测试,确保新算法性能至少与现有方法相当或更优。通过对这些数据集的分析和实验,可探索如遗传算法、模拟退火、粒子群优化、启发式算法及混合整数线性规划等多种调度策略,还可了解实际生产中哪些因素对调度结果影响最大,从而优化生产流程、提高效率。在 FJSP 研究中,理解数据集特点、构建合适模型、设计有效求解算法及严谨评估结果是重要步骤,这些实例为学者和工程师提供了实践与创新平台,推动了 FJSP 领域的理论发展和实际应用。

    cmd-bat-批处理-脚本-图像处理-stamp.zip

    cmd-bat-批处理-脚本-图像处理-stamp.zip

    基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告

    基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告,个人经导师指导并认可通过的高分设计项目,评审分98分,项目中的源码都是经过本地编译过可运行的,都经过严格调试,确保可以运行!主要针对计算机相关专业的正在做大作业、毕业设计的学生和需要项目实战练习的学习者,资源项目的难度比较适中,内容都是经过助教老师审定过的能够满足学习、使用需求,如果有需要的话可以放心下载使用。 基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库及实验报告基于Java Swing的酒店信息管理系统的源代码、数据库

    响应式SEO教程资讯类网站pbootcms模板 SEO博客优化网站源码下载

    PbootCMS内核开发的网站模板,该模板适用于seo优化网站、seo博客网站等企业,当然其他行业也可以做,只需要把文字图片换成其他行业的即可; 自适应手机端,同一个后台,数据即时同步,简单适用!附带测试数据! 友好的seo,所有页面均都能完全自定义标题/关键词/描述,PHP程序,安全、稳定、快速;用低成本获取源源不断订单! 后台:域名/admin.php 账号:admin 密码:admin 模板特点 1:手工书写DIV+CSS、代码精简无冗余。 2:自适应结构,全球先进技术,高端视觉体验。 3:SEO框架布局,栏目及文章页均可独立设置标题/关键词/描述。 4:附带测试数据、安装教程、入门教程、安全及备份教程。 5:后台直接修改联系方式、传真、邮箱、地址等,修改更加方便。

    三菱PLC与组态王在蜂窝煤生产线控制系统的应用及其实现 工业自动化

    内容概要:本文详细介绍了三菱PLC和组态王在蜂窝煤生产线控制系统中的应用。首先,文章概述了蜂窝煤生产线的特点及其对自动化控制的需求。接着,分别阐述了三菱PLC在数据采集与处理、逻辑控制和通信接口方面的应用,以及组态王在界面展示、远程控制和数据存储与分析的功能。最后,通过一段伪代码展示了三菱PLC的基本控制逻辑,并强调了系统维护和升级的重要性。文章指出,这两项技术的应用显著提升了生产线的自动化水平,提高了生产效率和质量,降低了人工成本和安全风险。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是对PLC编程和组态软件有一定了解的专业人士。 使用场景及目标:适用于希望深入了解三菱PLC和组态王在实际生产线中应用的读者,旨在帮助他们掌握这两种技术的具体实现方式,提升生产线的自动化水平。 其他说明:随着工业自动化技术的发展,未来的生产线控制系统将更加智能化、网络化和信息化。文中提到的内容为当前技术水平下较为成熟的应用案例,可供相关从业人员参考和借鉴。

    光储直流微电网下垂控制与母线电压分层管理策略研究 母线电压分层控制 v3.5

    内容概要:本文详细探讨了光储直流微电网系统中的下垂控制与母线电压分层控制策略。系统主要由150kW的光伏发电设备、50kW的储能装置以及100kW的并网变换器组成。储能装置在并网运行时作为负载运行(可充电),而在孤岛运行时作为电源运行。并网变换器和逆变器根据负载情况自动实现下垂模式和恒压模式切换,确保母线电压在不同模式下保持稳定。母线电压分层控制系统能够根据实际运行情况自动调整电压,维持系统的稳定运行。 适合人群:从事电力系统、新能源技术和微电网研究的专业人士和技术人员。 使用场景及目标:适用于光储直流微电网的设计、建设和运维阶段,旨在提高系统的效率和稳定性,确保在并网和孤岛两种模式下都能可靠运行。 其他说明:文中还介绍了不同电压模式的具体范围及其对系统的影响,并引用相关文献支持研究结论。

    基于MATLAB遗传算法的公交路线优化研究

    我最近开发了一个基于遗传算法的公交车路线规划程序,如果你对这个话题感兴趣,欢迎私信我了解更多详情。

    cmd-bat-批处理-脚本-backbat2.zip

    cmd-bat-批处理-脚本-backbat2.zip

Global site tag (gtag.js) - Google Analytics