首页
关于
Search
1
Hadoop大数据平台搭建文档
64 阅读
2
BiliBili-DL 使用文档
55 阅读
3
Github发布Release教程
23 阅读
默认分类
登录
Search
标签搜索
Github
大数据
Linux
Hadoop
Git
BiliBili-DL
开源项目
EchoZenith
累计撰写
3
篇文章
累计收到
0
条评论
首页
栏目
默认分类
页面
关于
搜索到
3
篇与
的结果
2025-03-01
BiliBili-DL 使用文档
作者:EchoZenith Github以下是一份关于 BiliBili-DL 的使用文档,详细介绍如何安装和使用该项目来下载 B站视频。BiliBili-DL 使用文档1. 项目简介BiliBili-DL 是一个开源工具,用于下载 B站(Bilibili)视频。它提供了两种语言版本:Node.js 和 Python,用户可以根据自己的需求选择合适的版本进行使用。2. 安装前的准备工作2.1 安装 FFmpegBiliBili-DL 需要 ffmpeg 来处理视频文件。请确保在你的系统中安装了 ffmpeg,并将其添加到环境变量中。以下是不同操作系统的安装方法:Windows 用户下载 FFmpeg Windows 版本。解压下载的文件到一个目录(例如 C:\ffmpeg)。将 C:\ffmpeg\bin 添加到系统的环境变量 PATH 中。打开命令提示符,运行以下命令以验证安装:ffmpeg -version如果安装成功,你会看到 FFmpeg 的版本信息。macOS 用户使用 Homebrew 安装 FFmpeg:brew install ffmpeg验证安装:ffmpeg -versionLinux 用户使用包管理器安装 FFmpeg:Ubuntu/Debian:sudo apt update sudo apt install ffmpegCentOS:sudo yum install ffmpegArch Linux:sudo pacman -S ffmpeg验证安装:ffmpeg -version3. 安装与使用3.1 Node.js 版本安装步骤克隆项目:git clone https://github.com/EchoZenith/BiliBili-DL.git cd BiliBili-DL/ git checkout node安装依赖:npm install运行程序:node run start3.2 Python 版本安装步骤克隆项目:git clone https://github.com/EchoZenith/BiliBili-DL.git cd BiliBili-DL/ git checkout python安装依赖:pip install -r requirements.txt运行程序:python login.py # 可选 登录获取Cookie python main.py4. 打包为可执行文件(Python 版本)为了方便在没有 Python 环境的系统上运行工具,可以使用 PyInstaller 将 Python 版本打包为独立的 .exe 文件。打包步骤安装 PyInstaller:pip install pyinstaller打包主程序:pyinstaller -D -i "BiliBili-DL.ico" --onefile --name="BiliBili下载" main.py打包登录程序(如果需要):pyinstaller -D -i "BiliBili-DL.ico" --onefile --name="二维码登录" login.py查找生成的文件:打包完成后,生成的 .exe 文件位于 dist 文件夹中。5. 使用指南5.1 命令行界面运行程序后,你将看到一个命令行界面,提示你输入 B站视频的链接。输入有效的视频链接后,程序将自动解析并开始下载。5.2 支持的清晰度超清:4K、1080P60 等。高清:1080p、720p 等。标清:480p、360p 等。程序会根据视频的实际可用清晰度进行下载。5.3 批量下载如果你需要下载多个视频,可以通过以下方式:将多个视频链接保存到一个文本文件中(每行一个链接)。使用-file 文件名。python main.py -file 文件名6. 注意事项合法使用:本工具仅供学习和研究目的使用。请遵守 B站的使用条款,不要用于非法用途。链接有效性:请确保输入的视频链接是有效的 B站视频页面链接。依赖更新:请定期更新项目依赖,以确保工具的正常运行。7. 支持平台WindowsmacOSLinux8. 贡献代码如果你有任何改进或新功能的想法,欢迎贡献代码!以下是贡献步骤:Fork 本项目。创建一个新的分支:git checkout -b feature/your-feature-name提交你的更改:git commit -m "Add some feature"推送到你的分支:git push origin feature/your-feature-name提交 Pull Request。9. 联系与反馈如果你在使用过程中遇到问题,或者有任何建议,请通过以下方式联系我们:提交 Issue。发送邮件至:EchoZenith@163.com。感谢你使用 BiliBili-DL!希望这份使用文档能帮助你顺利使用 BiliBili-DL 工具。如果有任何问题,请随时参考项目的 GitHub 页面或联系项目维护者。
2025年03月01日
55 阅读
0 评论
3 点赞
2025-02-28
Github发布Release教程
作者:EchoZenith GithubGithub发布Release教程本地仓库:首先需要在本地仓库创建一个新分支,例如:release-v1.0.0git checkout -b release-v1.0.0然后将该分支提交到远程仓库中git push origin release-v1.0.0在本地创建一个Taggit tag -a release-v1.0.0 -m "release-v1.0.0"把这个Tag推送到远程仓库中即可git push origin refs/tags/release-v1.0.0Github:在仓库的右侧,可以看到一个 Release 标志点击 Create a new release 创建一个新的发布选择刚刚创建的Tag填写发布的标题填写发布的简介把项目拖拽上传点击发布 Release
2025年02月28日
23 阅读
0 评论
3 点赞
2024-03-25
Hadoop大数据平台搭建文档
作者:EchoZenith Github一、背景介绍随着中国数字化转型战略的推进,传统通信行业正面临 着数字化转型的挑战和机遇;用户对通信服务的需求已经发 生了根本性的变化,通信运营商正在通过技术创新和服务升 级来满足这些需求;数字化转型涉及到网络建设、数据管理、 服务创新等方面,大数据技术成为关键驱动力之一。为了应对这一转型,我们要求参赛者搭建通信行业大数 据分析平台,并利用 Hive 数仓技术和 Spark 计算引擎对通 信用户行为数据进行操作和分析;通过这样的平台,可以快 速处理和挖掘海量数据,得出有价值的洞察和分析结果。同时,在展示数据分析结果方面,我们要求参赛者结合 前端可视化框架 ECharts 和 Python 可视化库 pyecharts,创建交互式的数据可视化图表;这些图表能够直观地展示数据分析结果,帮助管理者更好地决策企业的发展战略,并对销 售、营销、客服和技术等部门的目标策略进行全面部署;通 过数据可视化,销售部门可以了解产品销售趋势和市场份额;营销部门可以优化营销活动和广告投放策略;客服部门可以提供更好的客户服务;技术部门可以进行网络优化和故障排查。二、模块一:平台搭建与运维(一)任务一:大数据平台搭建本模块需要使用 root 用户完成相关配置;所有组件均 在 /root/software 目录下。1. 子任务一:基础环境准备提示:master、slave1、slave2三台节点都需要安装JDK(1) 将JDK安装包解压到/root/software目录下;tar -zxvf /root/software/package/jdk-8u212-linux-x64.tar.gz -C /root/software(2) 在“/etc/profile”文件中配置JDK环境变量JAVA_HOME和PATH的值,并让配置文件立即生效;在/etc/profile文件末尾添加:export JAVA_HOME=/root/software/jdk1.8.0_212 export PATH=$PATH:$JAVA_HOME/bin保存退出后使用命令立即执行source /etc/profile(3) 查看JDK版本,检测JDK是否安装成功。 在master节点操作javac 或 java -version(4) 在master上生成SSH密钥对。ssh-keygen -t rsa(5) 将master上的公钥拷贝到slave1和slave2上; 在 master 上通过 SSH 连接 slave1 和 slave2 来验证。先分别修改hostnamehostnamectl set-hostname master hostnamectl set-hostname slave1 hostnamectl set-hostname slave2使用命令exec bash刷新终端再修改/etc/hosts文件(注意修改各节点的ip)分别将公钥复制到各节点:ssh-copy-id master ssh-copy-id slave1 ssh-copy-id slave2 scp -r ~/.ssh/ slave1:~/ scp -r ~/.ssh/ slave2:~/ ssh master # 测试免密登录 然后使用exit命令退出终端 ssh slave1 ssh slave22. 子任务二:Hadoop 完全分布式安装配置master、slave1、slave2三台节点都需要安装Hadoop(1) 在 主 节 点 将 Hadoop 安 装 包 解 压 到 /root/software 目录下;tar -zxvf /root/software/package/hadoop-3.3.3.tar.gz -C /root/software(2) 依次配置hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml和workers配置hadoop-env.sh:在文件中新增 JAVA_HOME 目录地址export JAVA_HOME=/root/software/jdk1.8.0_212core-site.xml:在文件中的 configuration 标签中添加以下配置<property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>fs.trash.interval</name> <value>10080</value> </property> <property> <name>io.file.buffer.size</name> <value>131702</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/root/software/hadoop-3.3.3/hadoopDatas/tempDatas</value> </property>hdfs-site.xml:在文件中的 configuration 标签中添加以下配置<property> <name>dfs.namenode.secondary.http-address</name> <value>master:50090</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/root/software/hadoop-3.3.3/hadoopDatas/namenodeDatas</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/root/software/hadoop-3.3.3/hadoopDatas/datanodeDatas</value> </property>mapred-site.xml:在文件中的 configuration 标签中添加以下配置<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property>yarn-site.xml:在文件中的 configuration 标签中添加以下配置<property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property>workers:将文件中修改为以下内容master slave1 slave2(3) 在master节点的Hadoop安装目录下依次创建hadoopDatas/tempDatas 、 hadoopDatas/namenodeDatas 、 hadoopDatas/datanodeDatas 、 hadoopDatas/dfs/nn/edits 、 hadoopDatas/dfs/snn/name 和 hadoopDatas/dfs/nn/snn/edits 目录;(4) 在master节点上使用scp命令将配置完的Hadoop安装目录直接拷贝至slave1和slave2;分别执行下面两条命令scp -r /root/software/hadoop-3.3.3/ slave1:~/software/ scp -r /root/software/hadoop-3.3.3/ slave2:~/software/(5) 三台节点的“/etc/profile”文件中配置Hadoop环境变量HADOOP_HOME和PATH的值,并让配置文件立即生效;在/etc/profile文件末尾添加:export HADOOP_HOME=/root/software/hadoop-3.3.3/ export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin保存退出后使用命令立即执行source /etc/profile(6) 在主节点格式化集群;hdfs namenode -format(7) 在主节点依次启动HDFS、YARN集群和历史服务cd /root/software/hadoop-3.3.3/sbin ./start-all.sh
2024年03月25日
64 阅读
0 评论
8 点赞