当前位置: 首页 > news >正文

网站建设工作室需要哪些设备单页面网站多少钱

网站建设工作室需要哪些设备,单页面网站多少钱,山西物价局建设工程检测网站首页,公司做网站花销会计分录目录 文件传输步骤 windows的本机文件传输 linux的虚拟机文件传输 文件传输步骤 建立连接 在connect2HDFS()方法中#xff0c;通过设置Configuration对象来指定HDFS的URI#xff08;在这个例子中为hdfs://192.168.12.133:9000#xff09;#xff0c;并初始化一个FileSys…目录 文件传输步骤 windows的本机文件传输 linux的虚拟机文件传输 文件传输步骤 建立连接 在connect2HDFS()方法中通过设置Configuration对象来指定HDFS的URI在这个例子中为hdfs://192.168.12.133:9000并初始化一个FileSystem实例fs用于后续的所有HDFS操作。 关闭连接 close()方法用于在完成所有HDFS操作后关闭与HDFS的连接确保资源被正确释放。 上传文件并分类 (uploadAndClassify(File file)):方法接收一个本地文件作为参数。 将本地文件上传到HDFS上的相应目录中。 业务逻辑 该方法接受一个字符串类型的目录路径作为参数将其转换为Path对象并检查该路径是否已存在。如果不存在则创建新的目录。 主函数执行 首先调用connect2HDFS()方法与HDFS建立连接。指定一个本地目录在这个例子中是/home/covid_data然后遍历这个目录下的所有.json文件。对每个符合条件的文件调用uploadAndClassify(File file)方法进行处理。 package hdfs.demo;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.File; import java.io.IOException; import java.util.regex.Matcher; import java.util.regex.Pattern;public class HDFSApiDemo {private static FileSystem fs null;// 用于和HDFS建立连接public static void connect2HDFS() throws IOException {Configuration conf new Configuration();conf.set(fs.defaultFS,hdfs://192.168.12.133:9000);// 显式指定本地文件系统的实现类conf.set(fs.file.impl, org.apache.hadoop.fs.LocalFileSystem);System.out.println(111);fs FileSystem.get(conf);}// 关闭客户端和HDFS的连接public static void close(){if(fs ! null){try{fs.close();} catch (IOException e){e.printStackTrace();}}}/*** 上传文件并分类* param file* throws IOException*/public static void uploadAndClassify(File file) throws IOException {// 提取所有汉字作为省份名称Pattern pattern Pattern.compile(([\\p{IsHan}]).*\\.json);// 匹配所有汉字Matcher matcher pattern.matcher(file.getName());// 匹配汉字成功if (matcher.find()) {String province matcher.group(1); // 获取所有汉字组成的字符串String targetDir /covid_data/ province /; // 使用全部汉字作为目录名String fileName file.getName();System.out.println(Processing file: fileName);// 创建省份目录如果不存在mkdir(targetDir);// HDFS目的路径Path dst new Path(targetDir fileName);// 上传文件fs.copyFromLocalFile(new Path(file.getAbsolutePath()), dst);System.out.println(Uploaded: fileName to targetDir);} else {System.out.println(File does not match the expected pattern: file.getName());}}// 重载mkdir()方法支持String类型参数public static void mkdir(String dir) throws IOException {Path path new Path(dir);if (!fs.exists(path)) {fs.mkdirs(path); // 创建目录}}public static void main(String[] args) throws IOException {try {connect2HDFS();// 虚拟机上的本地目录File localDir new File(/home/covid_data);// 遍历目录下的所有文件for (File file : localDir.listFiles()) {if (file.isFile() file.getName().endsWith(.json)) {uploadAndClassify(file);}}close();} catch (IOException e) {e.printStackTrace();}}} windows的本机文件传输 对于上述代码只需要更改上传路径即可 遭遇问题1端口无法访问 // 第一步 cd /usr/local/hadoop安装路径 // 第二步  vi ./etc/hadoop/hdfs-site.xml // 第三步 加入下列配置 目的让NameNode监听所有网络接口上的9000端口 property     namedfs.namenode.rpc-bind-host/name     value0.0.0.0/value /property // 第四步 让配置生效     先关闭HDFS命令      ./sbin/stop-dfs.sh    在重启HDFS命令      ./sbin/start-dfs.sh 遭遇问题2用户权限不足 // 改变hadoop用户权限 这会将/data目录的权限设置为rwxrwxrwx允许所有用户读写执行 // hdfs dfs -chmod 777 /data linux的虚拟机文件传输 遭遇问题1无法找到主类 !--  添加maven-shade-plugin插件 --             plugin                 groupIdorg.apache.maven.plugins/groupId                 artifactIdmaven-shade-plugin/artifactId                 version3.2.4/version                 executions                     execution                         phasepackage/phase                         goals                             goalshade/goal                         /goals                         configuration                             transformers                                 transformer implementationorg.apache.maven.plugins.shade.resource.ManifestResourceTransformer                                     mainClasshdfs.demo.HDFSApiDemo/mainClass                                 /transformer                             /transformers                         /configuration                     /execution                 /executions             /plugin // 这段Maven配置的作用是使用maven-shade-plugin插件在打包阶段创建一个包含所有依赖的可执行JAR文件并指定hdfs.demo.HDFSApiDemo作为JAR文件的主类即包含main方法的入口类 遭遇问题1Hadoop尝试使用file:// URI方案时找不到对应的文件系统实现 // 显式指定本地文件系统的实现类 conf.set(fs.file.impl, org.apache.hadoop.fs.LocalFileSystem);
http://www.pierceye.com/news/194923/

相关文章:

  • 权威做网站的公司网站织梦程序改成wordpress
  • 用cms建网站容易吗平面设计网课平台哪个好
  • 网站设计怎么做好什么视频直播网站做挣钱
  • 西安 网站开发 招聘app开发难吗
  • 富阳网站建设 优帮云邯郸市商标设计品牌策划公司
  • 整站优化费用中国网新重庆
  • 找别人做网站wordpress怎么更改栏目权限
  • 珠海市建设工程质量监督检测站网站在小网站上做点击广告
  • 网站拉圈圈接口怎么做传媒网站设计
  • 淘宝客做的最好的网站盐山建网站
  • 西城企业网站建设深圳设计网站多少钱
  • 电子商务网站建设a卷网站建设厘金手指排名二一
  • 网站空间便宜网站的信息管理建设的必要性
  • 校级特色专业建设网站博达站群网站建设教程
  • 有没有做任务的网站吗网站首页开发
  • 公司名字变了网站备案济南网站建设公司哪个好点呢
  • 图书馆网站建设的规章制度企业免费招聘网站
  • 效果图网站大全系统优化的例子
  • 京东的网站建设介绍网站开发要源码多少钱
  • 东莞网站制作公司报价企业定制
  • 创同盟做网站生成拼贴的网站
  • 网站备案号查电话号码商场网站开发
  • 手机网站建站教育模板下载泰州公司注册
  • 如何做商业网站推广西安市城乡建设管理局网站的公示栏
  • 上海做兼职哪个网站腾讯企业邮箱域名是什么
  • 霸州网站制作棋牌网站建设源码
  • 茶叶网站制作模板网页设计在安阳工资多少
  • 网站建设项目验收方案自己做捕鱼网站能不能挣钱
  • 微信网页网站怎么做我为群众办实事实践活动
  • 建设银行发卡银行网站福州 网站设计