主要介绍了日常运行维护的管理工具 MongoDB的日常维护包括使用配置文件,设置访问控制,Shell交互,系统监控和管理,数据库日常备份和恢复 启动和停止MongoDB 启动后可以通过数据库的IP加端口号访问Web形式数据库。配置文件 通过使用拂去配置文件的方式启动
主要介绍了日常运行维护的管理工具
MongoDB的日常维护包括使用配置文件,设置访问控制,Shell交互,系统监控和管理,数据库日常备份和恢复启动和停止MongoDB
启动后可以通过数据库的IP加端口号访问Web形式数据库。配置文件通过使用拂去配置文件的方式启动数据库实例,在bin文件夹下创建并编辑mongodb.config(名字可以随意)
事例加上 dbpath =/data/db/
启动时加上 --f 参数,并且指向配置文件即可。
使用Daemon方式启动
为什么我们使用Daemon方式?当我们关闭数据库服务的session端口的时候,MongoDB的服务也随之终止,这样是十分不安全的。通过守护进程的方式,启动即可。添加 --fork 参数,这里必须指定存储日志的文件,即为启动 --logpath 参数。
事例如下
./mongod.exe --dbpath = D:\MongoDB --logpath = D:\MongoDB\log\mongodb50.log --fork
常见的mongod的参数说明
dbpath:数据文件存放路径logpath: 存放的日志文件
bind_ip :对外的服务绑定IP,一般为空,面对所有的IP开放
port: fork 以后台Daemon的形式启动该服务,web管理端在其上加1000
journal: 开启日志功能,通过保存操作日志来降低单机故障的恢复时间,
config :当参数行十分多的时候,使用这个参数来设定参数文件的位置
关闭数据库
直接使用Control+C来中断在connect连接状态下,可以切换到admin数据,后直接在库中发送db.shutdownServer()指令终止MongoDB实例。
Unix下发送Kill -2 PID 或者 Kill -15 PID来终止进程
ps aux|grep mongod kill -2 (yourPID) ps aux|grep mongod
注意:不能使用kill -9 PID 杀死进程,这样可能导致MongoDB数据库损坏。
访问数据库
绑定iP地址 ——bind_ip//MongoDB 可以限制只允许某一特定IP 来访问,只要在启动时加一个参数bind_ip 即可,如下:
[root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ ./mongod --bind_ip 192.168.1.61
设置监听端口 ——port
//将服务端监听端口修改为27018:
[root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ ./mongod --bind_ip 192.168.1.61 --port 27018
//(报错代码)端户访问时不指定端口,会连接到默认端口27017,对于本例会报错,代码如下:
[root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ ./mongo 192.168.1.50
MongoDB shell version: 2.0.2
connecting to: 192.168.1.61/test
Sun Apr 14 21:45:26 Error: couldn't connect to server 192.168.1.50 shell/mongo.js:81 exception: connect failed
使用用户名和密码登陆 ——启动时使用--auth参数
//先启用系统的登录验证模块, 只需在启动时指定 auth 参数即可,代码如下:
[root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ ./mongod --auth
启动认证
默认有个admin数据库,在admin.system.users中保存的用户比其他的数据库设置的用户权限更大。在未添加admin.system.users用户的权限的的情况下, 客户端无需任何认证就可以连接到数据库,并且可以对数据库进行任何操作,只有在admin.system.users添加了用户,启动--auth参数才会起作用。
1.建立系统root用户
>db.addUser("root","123456") >db.auth("root","123456")
2.建立只读权限用户
>db.addUser("user_reader","1234567",true)
添加只读权限的用户只需添加第三个参数,true。
使用命令行操作
MongoDB不仅可以交互,还可以执行指定的JavaScript文件,执行指定的命令片段,使用Linux Shell。
1.通过eval参数执行指定的语句
查询test库的t1集合的记录有多少:
db.t1.find()
{ "_id" : ObjectId("4f8ac746b2764d3c3e2cafbb"), "num" : 1 }
{ "_id" : ObjectId("4f8ac74cb2764d3c3e2cafbc"), "num" : 2 }
{ "_id" : ObjectId("4f8ac74eb2764d3c3e2cafbd"), "num" : 3 }
{ "_id" : ObjectId("4f8ac751b2764d3c3e2cafbe"), "num" : 4 }
{ "_id" : ObjectId("4f8ac755b2764d3c3e2cafbf"), "num" : 5 }
db.t1.count()
5
通过使用--eval参数直接执行ti的集合中的数
$./mongo.exe --eval "printjson(db.t1.count())" MongoDB shell version: 2.0.2 connecting to: test 5
2.使用js文件执行文件内容
$cat t1_count.js var count = db.t1.count(); printjson('count of t1 is: '+count);
显示为:
$./mongo t1_count.js MongoDB shell version: 2.0.2 connecting to: test "count of t1 is: 5"
Tips:通过--quiet参数屏蔽部分登陆信息,使结果更清晰
$ ./mongo --quiet t1_count.js "count of t1 is: 5"
进程管理
查看活动进程
> db.currentOp() >db.$cmd.sys.inprog.findOne() //$cmd调用外部函数
显示如下:
> db.currentOp() { "inprog" : [ { "opid" : 630385, "active" : true, "lockType" : "read", "waitingForLock" : false, "secs_running" : 0, "op" : "query", "ns" : "test", "query" : { "count" : "t1", "query" : { }, "fields" : { } }, "client" : "127.0.0.1:51324", "desc" : "conn", "threadId" : "0x7f066087f710", "connectionId" : 7, "numYields" : 0 } ] } >
代码解释:
opid:操作进程号op: 操作类型(query ,update ,etc)
ns: 命名空间(namespace),操作对象
query :显示操作的具体内容
lockType: 锁的类型,指明是写锁还是读锁
结束进程
> db.killOp(630385) { "info" : "attempting to kill op" }
我们查看下:
> db.currentOp() { "inprog" : [ ] } >
监控系统的状态和性能
使用serverStatus命令可以获取到运行中的MongoDB服务器统计信息,下面我们来执行命令,查看MongoDB服务器的统计信息(不同平台或不同版本的键会有所不同),代码如下:
> db.runCommand({"serverStatus":1}) { "host" : "lindenpatservermongodb01", "version" : "2.0.2", "process" : "mongod", "uptime" : 6003, "uptimeEstimate" : 5926, "localTime" : ISODate("2012-04-15T11:02:21.795Z"), "globalLock" : { "totalTime" : 6002811172, "lockTime" : 24867, "ratio" : 0.000004142559092311891, "currentQueue" : { "total" : 0, "readers" : 0, "writers" : 0 }, "activeClients" : { "total" : 0, "readers" : 0, "writers" : 0 } }, "mem" : { "bits" : 64, "resident" : 52, "virtual" : 1175, "supported" : true, "mapped" : 160, "mappedWithJournal" : 320 }, "connections" : { "current" : 1, "available" : 818 }, "extra_info" : { "note" : "fields vary by platform", "heap_usage_bytes" : 341808, "page_faults" : 14 }, "indexCounters" : { "btree" : { "accesses" : 1, "hits" : 1, "misses" : 0, "resets" : 0, "missRatio" : 0 } }, "backgroundFlushing" : { "flushes" : 100, "total_ms" : 13, "average_ms" : 0.13, "last_ms" : 1, "last_finished" : ISODate("2012-04-15T11:02:19.010Z") }, "cursors" : { "totalOpen" : 0, "clientCursors_size" : 0, "timedOut" : 0 }, "network" : { "bytesIn" : 1729666458, "bytesOut" : 1349989344, "numRequests" : 21093517 }, "opcounters" : { "insert" : 5, "query" : 8, "update" : 0, "delete" : 0, "getmore" : 0, "command" : 21093463 }, "asserts" : { "regular" : 0, "warning" : 0, "msg" : 0, "user" : 0, "rollovers" : 0 }, "writeBacksQueued" : false, "dur" : { "commits" : 30, "journaledMB" : 0, "writeToDataFilesMB" : 0, "compression" : 0, "commitsInWriteLock" : 0, "earlyCommits" : 0, "timeMs" : { "dt" : 3073, "prepLogBuffer" : 0, "writeToJournal" : 0, "writeToDataFiles" : 0, "remapPrivateView" : 0 } }, "ok" : 1 } >
数据导出与导入 mongoexport和mongoinport
使用mongoexport导出数据
先看数据:
> db.t1.find() { "_id" : ObjectId("4f8ac746b2764d3c3e2cafbb"), "num" : 1 } { "_id" : ObjectId("4f8ac74cb2764d3c3e2cafbc"), "num" : 2 } { "_id" : ObjectId("4f8ac74eb2764d3c3e2cafbd"), "num" : 3 } { "_id" : ObjectId("4f8ac751b2764d3c3e2cafbe"), "num" : 4 } { "_id" : ObjectId("4f8ac755b2764d3c3e2cafbf"), "num" : 5 } >使用代码:
./mongoexport.exe -d test -c t1 -o t1.dat connected to: 127.0.0.1 exported 5 records [root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ ls bsondump mongodump mongoimport mongosniff t1_count.js mongo mongoexport mongorestore mongostat t1.dat mongod mongofiles mongos mongotop testfiles.txt [root@mongodb01 /home/mongo/mongodb-2.0.2/bin]$ cat t1.dat { "_id" : ObjectId("4f8ac746b2764d3c3e2cafbb"), "num" : 1 } { "_id" : ObjectId("4f8ac74cb2764d3c3e2cafbc"), "num" : 2 } { "_id" : ObjectId("4f8ac74eb2764d3c3e2cafbd"), "num" : 3 } { "_id" : ObjectId("4f8ac751b2764d3c3e2cafbe"), "num" : 4 } { "_id" : ObjectId("4f8ac755b2764d3c3e2cafbf"), "num" : 5 }
./mongoexport.exe -d test -c t1 -o t1.dat 使用参数说明
-d: 指明使用的数据库-c: 指明导出的集合,这里是t1
-o: 导出的数据名,这里的数据名默认使用相对路径,也可以使用绝对路径。
导出的数据格式的是JSON方式,也可导出csv格式;
导出为CSV格式代码文件如下:
./mongoexport -d test -c t1 -csv -f num -o t1.dat-csv:指明了要导出的是CSV格式
-f: 指明需要导出的是哪些例子
数据导入 mongoimport
现将ti删除:
> db.t1.drop() true > show collections system.indexes system.users >
再导入数据,这里导入的是csv数据:
./mongoimport -d test -c t1 --type csv --headerline -file /home/t1.dat connected to: 127.0.0.1
看看导入的数据是不是一样:
> db.t1.find() { "_id" : ObjectId("4f8ac746b2764d3c3e2cafbb"), "num" : 1 } { "_id" : ObjectId("4f8ac74cb2764d3c3e2cafbc"), "num" : 2 } { "_id" : ObjectId("4f8ac74eb2764d3c3e2cafbd"), "num" : 3 } { "_id" : ObjectId("4f8ac751b2764d3c3e2cafbe"), "num" : 4 } { "_id" : ObjectId("4f8ac755b2764d3c3e2cafbf"), "num" : 5 } >--type csv 导入的数据格式为CSV,为什么导入CSV格式:CSV对各大主流的数据库支持更良好,而JSON作为轻量级的数据格式,还有些弊端。
--file 指明导入的文件路径
数据备份和恢复
使用 数据备份 mongodump
./mongodump -d test -o /home/dump-o:表示输出的备份路径,如果没有使用这个选项的话,MongoDB会自动创建dump文件夹并将备份文件放于其内。
使用数据恢复 mongorestore
mongorestore获取mongodump的输出结果,并将备份的数据插入到运行的MongoDB中。
./mongorestore -d test dump/* connected to: 127.0.0.1 Thu Apr 19 18:16:12 dump/test/system.users.bson Thu Apr 19 18:16:12 going into namespace [test.system.users] 2 objects found Thu Apr 19 18:16:12 dump/test/t1.bson Thu Apr 19 18:16:12 going into namespace [test.t1] 5 objects found Thu Apr 19 18:16:12 dump/test/system.indexes.bson Thu Apr 19 18:16:12 going into namespace [test.system.indexes] Thu Apr 19 18:16:12 { key: { _id: 1 }, ns: "test.system.users", name: "_id_" } Thu Apr 19 18:16:13 { key: { _id: 1 }, ns: "test.t1", name: "_id_" } 2 objects found

InnoDB는 Redologs 및 Undologs를 사용하여 데이터 일관성과 신뢰성을 보장합니다. 1. Redologs는 사고 복구 및 거래 지속성을 보장하기 위해 데이터 페이지 수정을 기록합니다. 2. 결점은 원래 데이터 값을 기록하고 트랜잭션 롤백 및 MVCC를 지원합니다.

설명 명령에 대한 주요 메트릭에는 유형, 키, 행 및 추가가 포함됩니다. 1) 유형은 쿼리의 액세스 유형을 반영합니다. 값이 높을수록 Const와 같은 효율이 높아집니다. 2) 키는 사용 된 인덱스를 표시하고 NULL은 인덱스가 없음을 나타냅니다. 3) 행은 스캔 한 행의 수를 추정하여 쿼리 성능에 영향을 미칩니다. 4) Extra는 최적화해야한다는 Filesort 프롬프트 사용과 같은 추가 정보를 제공합니다.

Temporary를 사용하면 MySQL 쿼리에 임시 테이블을 생성해야 할 필요성이 있으며, 이는 별개의, 그룹 비 또는 비 인덱스 열을 사용하여 순서대로 발견됩니다. 인덱스 발생을 피하고 쿼리를 다시 작성하고 쿼리 성능을 향상시킬 수 있습니다. 구체적으로, 설명 출력에 사용되는 경우, MySQL은 쿼리를 처리하기 위해 임시 테이블을 만들어야 함을 의미합니다. 이것은 일반적으로 다음과 같은 경우에 발생합니다. 1) 별개 또는 그룹을 사용할 때 중복 제거 또는 그룹화; 2) OrderBy가 비 인덱스 열이 포함되어있을 때 정렬하십시오. 3) 복잡한 하위 쿼리 또는 조인 작업을 사용하십시오. 최적화 방법은 다음과 같습니다. 1) Orderby 및 GroupB

MySQL/InnoDB는 4 개의 트랜잭션 격리 수준을 지원합니다. Readuncommitted, ReadCommitted, ReturableRead 및 Serializable. 1. READUCMITTED는 커밋되지 않은 데이터를 읽을 수 있으므로 더러운 판독 값을 유발할 수 있습니다. 2. ReadCommitted는 더러운 읽기를 피하지만 반복 할 수없는 독서가 발생할 수 있습니다. 3. RepeatableRead는 더러운 읽기와 반복 할 수없는 독서를 피하는 기본 레벨이지만 팬텀 독서가 발생할 수 있습니다. 4. 직렬화 가능한 것은 모든 동시성 문제를 피하지만 동시성을 줄입니다. 적절한 격리 수준을 선택하려면 균형 잡힌 데이터 일관성 및 성능 요구 사항이 필요합니다.

MySQL은 웹 응용 프로그램 및 컨텐츠 관리 시스템에 적합하며 오픈 소스, 고성능 및 사용 편의성에 인기가 있습니다. 1) PostgreSQL과 비교하여 MySQL은 간단한 쿼리 및 높은 동시 읽기 작업에서 더 잘 수행합니다. 2) Oracle과 비교할 때 MySQL은 오픈 소스와 저렴한 비용으로 인해 중소 기업에서 더 인기가 있습니다. 3) Microsoft SQL Server와 비교하여 MySQL은 크로스 플랫폼 응용 프로그램에 더 적합합니다. 4) MongoDB와 달리 MySQL은 구조화 된 데이터 및 트랜잭션 처리에 더 적합합니다.

MySQL Index Cardinality는 쿼리 성능에 중대한 영향을 미칩니다. 1. 높은 카디널리티 인덱스는 데이터 범위를보다 효과적으로 좁히고 쿼리 효율성을 향상시킬 수 있습니다. 2. 낮은 카디널리티 인덱스는 전체 테이블 스캔으로 이어질 수 있으며 쿼리 성능을 줄일 수 있습니다. 3. 관절 지수에서는 쿼리를 최적화하기 위해 높은 카디널리티 시퀀스를 앞에 놓아야합니다.

MySQL 학습 경로에는 기본 지식, 핵심 개념, 사용 예제 및 최적화 기술이 포함됩니다. 1) 테이블, 행, 열 및 SQL 쿼리와 같은 기본 개념을 이해합니다. 2) MySQL의 정의, 작업 원칙 및 장점을 배우십시오. 3) 인덱스 및 저장 절차와 같은 기본 CRUD 작업 및 고급 사용량을 마스터합니다. 4) 인덱스의 합리적 사용 및 최적화 쿼리와 같은 일반적인 오류 디버깅 및 성능 최적화 제안에 익숙합니다. 이 단계를 통해 MySQL의 사용 및 최적화를 완전히 파악할 수 있습니다.

MySQL의 실제 응용 프로그램에는 기본 데이터베이스 설계 및 복잡한 쿼리 최적화가 포함됩니다. 1) 기본 사용 : 사용자 정보 삽입, 쿼리, 업데이트 및 삭제와 같은 사용자 데이터를 저장하고 관리하는 데 사용됩니다. 2) 고급 사용 : 전자 상거래 플랫폼의 주문 및 재고 관리와 같은 복잡한 비즈니스 로직을 처리합니다. 3) 성능 최적화 : 인덱스, 파티션 테이블 및 쿼리 캐시를 사용하여 합리적으로 성능을 향상시킵니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

에디트플러스 중국어 크랙 버전
작은 크기, 구문 강조, 코드 프롬프트 기능을 지원하지 않음

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.
