当前位置: 首页 > news >正文

网站数据库怎么配置店铺设计思路怎么写

网站数据库怎么配置,店铺设计思路怎么写,建筑设计师要学什么专业,合肥外贸网站建设公司排名逐个执行如下命令#xff1b; 1.拷贝analyzer如分词#xff08;需要分词器#xff0c;可能不成功#xff0c;不影响复制#xff09; ./elasticdump --inputhttp://[来源IP地址]:9200/[来源索引] --outputhttp://[目标IP地址]:9200/[目标索引] --typeanalyzer 2.拷贝映射…逐个执行如下命令 1.拷贝analyzer如分词需要分词器可能不成功不影响复制 ./elasticdump --inputhttp://[来源IP地址]:9200/[来源索引]  --outputhttp://[目标IP地址]:9200/[目标索引] --typeanalyzer 2.拷贝映射 ./elasticdump --inputhttp://[来源IP地址]:9200/[来源索引]  --outputhttp://[目标IP地址]:9200/[目标索引] --typemapping 3.拷贝数据 ./elasticdump --inputhttp://[来源IP地址]:9200/[来源索引]  --outputhttp://[目标IP地址]:9200/[目标索引] --typedata 恢复顺序是1、先分词2、索引、3、数据 注如查不迁移分词替换为空值 例  替换分词   sed -i s/,analyzer:ik_analyzer//g  geometry_955_mapping.json elasticdump \   --inputhttp://192.168.1.140:9200/source_index \   --outputhttp://192.168.1.141:9200/target_index \   --typedata \   --limit2000  # 每次操作的objects数量默认100数据量大的话可以调大加快迁移速度  --inputhttp://172.30.40.125:9200/geometry_833 \ --outputhttp://47.105.38.107:9200/geometry_833 导出索引结构 elasticdump \   --inputhttp://production.es.com:9200/my_index \   --output/data/my_index_mapping.json \   --typemapping 导出索引数据 elasticdump \   --inputhttp://production.es.com:9200/my_index \   --output/data/my_index.json \   --typedata    elasticdump  --inputhttp://172.30.40.125:9200/geometry_833   --output/mysqldata/es20240516/geometry_833_mapping.json  --typemapping elasticdump  --inputhttp://172.30.40.125:9200/geometry_833   --output/mysqldata/es20240516/geometry_833.json  --typedata       导入索引和数据 elasticdump \   --input/data/source_index_mapping.json \   --outputhttp://192.168.1.141:9200/source_index \   --typemapping elasticdump \   --input/data/source_index.json \   --outputhttp://192.168.1.141:9200/source_index \   --typedata \   --limit2000    elasticdump 所有索引 elasticdump --input./indices.json --outputhttp://localhost:9201 --alltrue  elasticdump 所有数据 elasticdump --inputhttp://localhost:9200/ --outputall_data.json --alltrue 这里的参数解释如下 --input指定 Elasticsearch 实例的地址。 --output指定导出的文件名。 --alltrue指示 elasticdump 导出所有的数据。 elasticdump --input/data/source_index_mapping.json --outputhttp://192.168.1.141:9200/source_index  --typemapping elasticdump  --input/data/source_index.json --outputhttp://192.168.1.141:9200/source_index --typedata    elasticdump --input/mysqldata/es20240516/geometry_833_mapping.json --outputhttp://47.105.38.107:9200/geometry_833  --typemapping elasticdump --input/mysqldata/es20240516/geometry_833.json --outputhttp://47.105.38.107:9200/geometry_833  --typedata    #es如果有密码执行以下语句 elasticdump \   --inputhttp://username:passowrdproduction.es.com:9200/my_index \   --outputhttp://username:passwordstaging.es.com:9200/my_index \   --typedata      替换分词   sed -i s/,analyzer:ik_analyzer//g  geometry_955_mapping.json  sed -i s/,analyzer:ik_analyzer//g 1.json       大量数据迁移    #ESM迁移工具【适合大数据量】 解析esm迁移过程原理与elasticsearch-dump类似区别在于esm使用go语言开发号称每分钟可以迁移一千万条数据 下载地址wget https://github.com/medcl/esm/releases/download/v0.7.0/esm-linux-amd64 1、数据迁移 授权chmod x esm-linux-amd64 ./esm-linux-amd64 -s http://192.168.1.x.:9200 -m 账户:密码 -x 索引名称 -d http://192.168.2.x:9200 -n 账户:密码 -c 10000 -w10 -b20 -f --refresh 解析 -s表示读取数据源SOURCE -d表示将数据源传输到目的地DESTINATION。 -x表示需要复制的索引名称 -q表示指定条件的查询语句 -n表示base认证的用户名和密码 -w表示并发数默认为1 -b表示buck大小默认5MB -f表示复制前删除已有重名索引 –refresh表示完成后再刷新索引 4、下载安装elasticsearch-migration 源码https://github.com/medcl/esm-abandoned 编译好的工具https://github.com/medcl/esm-abandoned/releases 下载编译好的工具放到/usr/local/hadoop目录下解压后可以直接运行elasticsearch-migration支持linuxwindows等不同系统。使用示例 ./bin/linux64/esm -s http://10.62.124.x:9200 -d http://10.67.151.y:9200 -x index_name -w5 -b10 -c 10000 1 -w 表示线程数 -b 表示一次bulk请求数据大小单位MB默认 5M -c 一次scroll请求数量 5、数据迁移 因为需要迁移的索引比较多大概有几百个为了提高效率所以写了一个批量索引迁移脚本 #!/bin/sh dir/usr/local/hadoop cd $dir esIndexcurl -s http://10.62.124.x:9200/_cat/indices | grep -e mobile_lte_* | awk {print $3} for indexName in $esIndex do echo Start migration $indexName     ./bin/linux64/esm -s http://10.62.124.x:9200 -d http://10.67.151.y:9200 -x $indexName -y $indexName -w5 -b10 -c 10000 --copy_settings --copy_mappings --force  --refresh done 将该脚本放到/usr/local/hadoop目录下运行即可。 授权chmod x esm-linux-amd64 ./esm-linux-amd64 -s http://192.168.1.x.:9200 -m 账户:密码 -x 索引名称 -d http://192.168.2.x:9200 -n 账户:密码 -c 10000 -w10 -b20 -f --refresh 解析 -s表示读取数据源SOURCE -d表示将数据源传输到目的地DESTINATION。 -x表示需要复制的索引名称 -q表示指定条件的查询语句 -n表示base认证的用户名和密码 -w表示并发数默认为1 -b表示buck大小默认5MB -f表示复制前删除已有重名索引 –refresh表示完成后再刷新索引   2、使用示例 copy index index_name from 192.168.1.x to 192.168.1.y:9200 ./bin/esm -s http://192.168.1.x:9200 -d http://192.168.1.y:9200 -x index_name -w5 -b10 -c 10000copy index src_index from 192.168.1.x to 192.168.1.y:9200 and save with dest_index ./bin/esm -s http://localhost:9200 -d http://localhost:9200 -x src_index -y dest_index -w5 -b100support Basic-Auth ./bin/esm -s http://localhost:9200 -x src_index -y dest_index -d http://localhost:9201 -n admin:111111copy settings and override shard size ./bin/esm -s http://localhost:9200 -x src_index -y dest_index -d http://localhost:9201 -m admin:111111 -c 10000 --shards50 --copy_settings copy settings and mapping, recreate target index, add query to source fetch, refresh after migration ./bin/esm -s http://localhost:9200 -x src_index -qquery:phone -y dest_index -d http://localhost:9201 -c 10000 --shards5 --copy_settings --copy_mappings --force --refresh dump elasticsearch documents into local file ./bin/esm -s http://localhost:9200 -x src_index -m admin:111111 -c 5000 -qquery:mixer --refresh -odump.bin loading data from dump files, bulk insert to another es instance ./bin/esm -d http://localhost:9200 -y dest_index -n admin:111111 -c 5000 -b 5 --refresh -idump.binsupport proxy ./bin/esm -d http://123345.ap-northeast-1.aws.found.io:9200 -y dest_index -n admin:111111 -c 5000 -b 1 --refresh -i dump.bin --dest_proxyhttp://127.0.0.1:9743use sliced scroll(only available in elasticsearch v5) to speed scroll, and update shard number ./bin/esm -shttp://192.168.3.206:9200 -dhttp://localhost:9200 -nelastic:changeme -f --copy_settings --copy_mappings -xbestbuykaggle --sliced_scroll_size5 --shards50 --refreshmigrate 5.x to 6.x and unify all the types to doc ./esm -s http://source_es:9200 -x source_index* -u doc -w 10 -b 10 - -t 10m -d https://target_es:9200 -m elastic:passwd -n elastic:passwd -c 5000 to migrate version 7.x and you may need to rename _type to _doc ./esm -s http://localhost:9201 -x source -y target -d https://localhost:9200 --rename_type:type,age:myage -u_doc filter migration with range query ./esm -s https://192.168.3.98:9200 -m elastic:password -o json.out -x kibana_sample_data_ecommerce -q order_date:[2020-02-01T21:59:0200:00 TO 2020-03-01T21:59:0200:00] range query, keyword type and escape ./esm -s https://192.168.3.98:9200 -m test:123 -o 1.txt -x test1 -q timestamp.keyword:[\2021-01-17 03:41:20\ TO \2021-03-17 03:41:20\]generate testing data, if input.json contains 10 documents, the follow command will ingest 100 documents, good for testing ./bin/esm -i input.json -d http://localhost:9201 -y target-index1 --regenerate_id --repeat_times10 select source fields ./bin/esm -s http://localhost:9201 -x my_index -o dump.json --fieldsauthor,titlerename fields while do bulk indexing ./bin/esm -i dump.json -d http://localhost:9201 -y target-index41 --renametitle:newtitleuser buffer_count to control memory used by ESM and use gzip to compress network traffic ./esm -s https://localhost:8000 -d https://localhost:8000 -x logs1kw -y logs122 -m elastic:medcl123 -n elastic:medcl123 --regenerate_id -w 20 --sliced_scroll_size60 -b 5 --buffer_count1000000 --compress false Download Releases · medcl/esm · GitHub Compile: if download version is not fill you environment,you may try to compile it yourself. go required. make build go version 1.7 Options Usage: esm [OPTIONS] Application Options: -s, --source source elasticsearch instance, ie: http://localhost:9200 -q, --query query against source elasticsearch instance, filter data before migrate, ie: name:medcl -d, --dest destination elasticsearch instance, ie: http://localhost:9201 -m, --source_auth basic auth of source elasticsearch instance, ie: user:pass -n, --dest_auth basic auth of target elasticsearch instance, ie: user:pass -c, --count number of documents at a time: ie size in the scroll request (10000) --buffer_count number of buffered documents in memory (100000) -w, --workers concurrency number for bulk workers (1) -b, --bulk_size bulk size in MB (5) -t, --time scroll time (1m) --sliced_scroll_size size of sliced scroll, to make it work, the size should be 1 (1) -f, --force delete destination index before copying -a, --all copy indexes starting with . and _ --copy_settings copy index settings from source --copy_mappings copy index mappings from source --shards set a number of shards on newly created indexes -x, --src_indexes indexes name to copy,support regex and comma separated list (_all) -y, --dest_index indexes name to save, allow only one indexname, original indexname will be used if not specified -u, --type_override override type name --green wait for both hosts cluster status to be green before dump. otherwise yellow is okay -v, --log setting log level,options:trace,debug,info,warn,error (INFO) -o, --output_file output documents of source index into local file -i, --input_file indexing from local dump file --input_file_type the data type of input file, options: dump, json_line, json_array, log_line (dump) --source_proxy set proxy to source http connections, ie: http://127.0.0.1:8080 --dest_proxy set proxy to target http connections, ie: http://127.0.0.1:8080 --refresh refresh after migration finished --fields filter source fields, comma separated, ie: col1,col2,col3,... --rename rename source fields, comma separated, ie: _type:type, name:myname -l, --logstash_endpoint target logstash tcp endpoint, ie: 127.0.0.1:5055 --secured_logstash_endpoint target logstash tcp endpoint was secured by TLS --repeat_times repeat the data from source N times to dest output, use align with parameter regenerate_id to amplify the data size -r, --regenerate_id regenerate id for documents, this will override the exist document id in data source --compress use gzip to compress traffic -p, --sleep sleep N seconds after finished a bulk request (-1) Help Options: -h, --help Show this help message FAQ Scroll ID too long, update elasticsearch.yml on source cluster. http.max_header_size: 16k http.max_initial_line_length: 8k
http://www.pierceye.com/news/703109/

相关文章:

  • 莆田仿站定制模板建站网站设计应该考虑的重要因素
  • 简述网站制作过程企业网络推广网站建设
  • 外贸营销网站建设介绍wordpress分库技术
  • 做竞品分析的网站安卓小程序开发入门
  • 做网站的外包公司可以进吗做旅游网站赚钱吗
  • 网站网页设计基本理论教育学校网站源码 php
  • 吉林省建设厅网站专家新华社官网
  • 代做吧机械网站天津建站管理系统价格
  • 开发网站公司都需要什么岗位人员有了网站怎么写文章
  • 白水网站建设郑州网站推广优化公司
  • 做网站的参考文献专业建设报告
  • asp网站搭建工具中英文网站前端怎么做
  • 微信公众号 做不了微网站wordpress怎么转移
  • 主营网站开发游戏推广员每天做什么
  • c 做网站用什么框架长沙网络建设的网站
  • 专业的网站建设网络网站连接跳转怎么做
  • 南山网站设计方案安徽六安特产
  • 设计型网站案例深圳广告投放公司
  • 能源网站模板头条发布视频成功显示404
  • 郑州网站制作企业建设网站多长时间
  • 建站网站知乎wordpress面包屑
  • 用CMS做网站的好处网站流量消耗计算
  • asp 网站 模板网站建设的公司选择哪家好
  • 广州市越秀区建设局网站字体logo设计在线生成
  • 展示网站模版源码软件开发工具包sdk
  • 佛山网站建站网站程序免费下载
  • 课程设计报告 网站开发网络营销代运营外包公司
  • 手机html5网站模板网站怎么做查询功能
  • 有哪些做外贸的网站可做笔记的阅读网站
  • vs2010c 做网站无锡网站制作有哪些