java如何導出insert語句並生成sql腳本

看代碼吧~

package com.mtpc.admin.controller.exportSql;
import ch.qos.logback.classic.db.names.ColumnName;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.sql.*;
import java.util.ArrayList;
import java.util.List;
public class ExportSqlController {
 
    private static Connection conn = null;
    private static Statement sm = null;
    private static String schema = "motooling2";//模式名
    private static String select = "SELECT * FROM";//查詢sql
    private static String insert = "INSERT INTO";//插入sql
    private static String values = "VALUES";//values關鍵字
    private static String[] table = {"city"};//table數組
    private static List<String> insertList = new ArrayList<String>();//全局存放insertsql文件的數據
    private static String filePath = "C:\\mysql\\sql.sql";//絕對路徑導出數據的文件
 
    /**
     * 導出數據庫表*@paramargs *@throwsSQLException
     */
    public static void main(String[] args) throws SQLException {
        List<String> listSQL = new ArrayList<String>();
        connectSQL("com.mysql.jdbc.Driver", "jdbc:mysql://192.168.2.186:3306/motooling2?useUnicode=true&characterEncoding=utf8&useSSL=false&tinyInt1isBit=true", "root", "123123");//連接數據庫
        listSQL = createSQL();//創建查詢語句
        executeSQL(conn, sm, listSQL);//執行sql並拼裝
        createFile();//創建文件
    }
 
    /**
     * 創建insertsql.txt並導出數據
     */
    private static void createFile() {
        File file = new File(filePath);
        if (!file.exists()) {
            try {
                file.createNewFile();
            } catch (IOException e) {
                System.out.println("創建文件名失敗!!");
                e.printStackTrace();
            }
        }
        FileWriter fw = null;
        BufferedWriter bw = null;
        try {
            fw = new FileWriter(file);
            bw = new BufferedWriter(fw);
            if (insertList.size() > 0) {
                for (int i = 0; i < insertList.size(); i++) {
                    bw.append(insertList.get(i));
                    bw.append("\n");
                }
            }
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            try {
                bw.close();
                fw.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
 
    /**
     * 拼裝查詢語句
     *
     * @return返回 select集合
     */
    private static List<String> createSQL() {
        List<String> listSQL = new ArrayList<String>();
        for (int i = 0; i < table.length; i++) {
            StringBuffer sb = new StringBuffer();
            sb.append(select).append(" ").append(schema).append(".").append(table[i]);
            listSQL.add(sb.toString());
        }
        return listSQL;
    }
 
    /**
     * 連接數據庫創建statement對象
     * *@paramdriver
     * *@paramurl
     * *@paramUserName
     * *@paramPassword
     */
    public static void connectSQL(String driver, String url, String UserName, String Password) {
        try {
            Class.forName(driver).newInstance();
            conn = DriverManager.getConnection(url, UserName, Password);
            sm = conn.createStatement();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
 
    /**
     * 執行sql並返回插入sql
     *
     * @paramconn
     * @paramsm
     * @paramlistSQL *
     * @throwsSQLException
     */
    public static void executeSQL(Connection conn, Statement sm, List listSQL) throws SQLException {
        List<String> insertSQL = new ArrayList<String>();
        ResultSet rs = null;
        try {
            rs = getColumnNameAndColumeValue(sm, listSQL, rs);
        } catch (SQLException e) {
            e.printStackTrace();
        } finally {
            rs.close();
            sm.close();
            conn.close();
        }
    }
 
    /**
     * 獲取列名和列值
     *
     * @return
     * @paramsm
     * @paramlistSQL
     * @paramrs
     * @throwsSQLException
     */
    private static ResultSet getColumnNameAndColumeValue(Statement sm, List listSQL, ResultSet rs) throws SQLException {
        if (listSQL.size() > 0) {
            for (int j = 0; j < listSQL.size(); j++) {
                String sql = String.valueOf(listSQL.get(j));
                rs = sm.executeQuery(sql);
                ResultSetMetaData rsmd = rs.getMetaData();
                int columnCount = rsmd.getColumnCount();
                while (rs.next()) {
                    StringBuffer ColumnName = new StringBuffer();
                    StringBuffer ColumnValue = new StringBuffer();
                    for (int i = 1; i <= columnCount; i++) {
                        String value = rs.getString(i).trim();
                        if ("".equals(value)) {
                            value = "";
                        }
                        if (i == 1 || i == columnCount) {
                            if(i==columnCount){
                                ColumnName.append(",");
                            }
                            ColumnName.append(rsmd.getColumnName(i));
                            if( i== 1){
                                if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                    ColumnValue.append("'").append(value).append("',");
                                } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                    ColumnValue.append(value).append(",");
                                } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                    ColumnValue.append("timestamp'").append(value).append("',");
                                } else {
                                    ColumnValue.append(value).append(",");
 
                                }
                            }else{
                                if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                    ColumnValue.append("'").append(value);
                                } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                    ColumnValue.append(value);
                                } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                    ColumnValue.append("timestamp'").append(value);
                                } else {
                                    ColumnValue.append(value);
 
                                }
                            }
 
                        } else {
                            ColumnName.append("," + rsmd.getColumnName(i));
                            if (Types.CHAR == rsmd.getColumnType(i) || Types.VARCHAR == rsmd.getColumnType(i) || Types.LONGVARCHAR == rsmd.getColumnType(i)) {
                                ColumnValue.append("'").append(value).append("'").append(",");
                            } else if (Types.SMALLINT == rsmd.getColumnType(i) || Types.INTEGER == rsmd.getColumnType(i) || Types.BIGINT == rsmd.getColumnType(i) || Types.FLOAT == rsmd.getColumnType(i) || Types.DOUBLE == rsmd.getColumnType(i) || Types.NUMERIC == rsmd.getColumnType(i) || Types.DECIMAL == rsmd.getColumnType(i)|| Types.TINYINT == rsmd.getColumnType(i)) {
                                ColumnValue.append(value).append(",");
                            } else if (Types.DATE == rsmd.getColumnType(i) || Types.TIME == rsmd.getColumnType(i) || Types.TIMESTAMP == rsmd.getColumnType(i)) {
                                ColumnValue.append("timestamp'").append(value).append("',");
                            } else {
                                ColumnValue.append(value).append(",");
                            }
                        }
                    }
                    System.out.println(ColumnName.toString());
                    System.out.println(ColumnValue.toString());
                    insertSQL(ColumnName, ColumnValue,table[j]);
                }
            }
        }
        return rs;
    }
 
    /**
     * 拼裝insertsql放到全局list裡面
     * @paramColumnName
     * @paramColumnValue
     */
    private static void insertSQL(StringBuffer ColumnName, StringBuffer ColumnValue,String tableName) {
            StringBuffer insertSQL = new StringBuffer();
            insertSQL.append(insert).append(" ").append(schema).append(".")
                    .append(tableName).append("(").append(ColumnName.toString()).append(")").append(values).append("(").append(ColumnValue.toString()).append(");");
            insertList.add(insertSQL.toString());
            System.out.println(insertSQL.toString());
       
    }
 
}

java 實現數據庫導出 sql文件

        String commod = "mysqldump -u"+username+" -p"+password+" -h"+host+" -P"+port+" --single-transaction " +
                        "--master-data=2 --events --routines  --databases " +dataBaseName+"  -n -t " +
                        "--result-file="+sqlPath+dataBaseName+".sql";
        //調用系統黑窗口,運行命令
        Process p = null;
        try {
//            synchronized (this){
                p = Runtime.getRuntime().exec(commod);
//            }
        } catch (IOException e) {
            e.printStackTrace();
        }

遇到的坑 註意:

"mysqldump -u"+username+" -p"+password+" -h"+host+" -P"+port+" --single-transaction " +
"--master-data=2 --events --routines  --databases " +dataBaseName+"  -n -t " +
"--result-file="+sqlPath+dataBaseName+".sql";

網上大部分是 > 而不是–result-file= 在java中調用cmd,使用 > (重定向的意思)會出現錯誤,導致導出的sql文件為空;

另附上mysqldump常用參數,是復制來的:

1、 –all-databases, -A //導出全部數據庫。

#mysqldump  -uroot -p --all-databases>outfile.sql
#mysqldump  -uroot -p -A>outfile.sql      //等同於上句

2、 –all-tablespaces, -Y //導出全部表空間。

#mysqldump  -uroot -p --all-databases --all-tablespaces>outfile.sql
#mysqldump  -uroot -p –A -Y>outfile.sql      //等同於上句

3、 –no-tablespaces, -y //不導出任何表空間信息。

#mysqldump  -uroot -p --all-databases --no-tablespaces
#mysqldump  -uroot -p --A –y>outfile.sql  //等同於上句

4、 –add-drop-database

每個數據庫創建之前添加drop數據庫語句。

mysqldump  -uroot -p --all-databases --add-drop-database

5、 –add-drop-table

每個數據表創建之前添加drop數據表語句。(默認為打開狀態,使用–skip-add-drop-table取消選項)

mysqldump  -uroot -p --all-databases  (默認添加drop語句)
mysqldump  -uroot -p --all-databases –skip-add-drop-table  (取消drop語句)

6、 –add-locks

在每個表導出之前增加LOCK TABLES並且之後UNLOCK TABLE。(默認為打開狀態,使用–skip-add-locks取消選項)

mysqldump  -uroot -p --all-databases  (默認添加LOCK語句)
mysqldump  -uroot -p --all-databases –skip-add-locks   (取消LOCK語句)

7、 –allow-keywords

允許創建是關鍵詞的列名字。這由表名前綴於每個列名做到。

mysqldump  -uroot -p --all-databases --allow-keywords

8、 –apply-slave-statements

在’CHANGE MASTER’前添加’STOP SLAVE’,並且在導出的最後添加’START SLAVE’。

mysqldump  -uroot -p --all-databases --apply-slave-statements

9、 –character-sets-dir //字符集文件的目錄

mysqldump  -uroot -p --all-databases  --character-sets-dir=/usr/local/mysql/share/mysql/charsets

10、 –comments

附加註釋信息。默認為打開,可以用–skip-comments取消

mysqldump  -uroot -p --all-databases  (默認記錄註釋)
mysqldump  -uroot -p --all-databases --skip-comments   (取消註釋)

11、 –compatible

導出的數據將和其它數據庫或舊版本的MySQL 相兼容。值可以為ansi、mysql323、mysql40、postgresql、oracle、mssql、db2、maxdb、no_key_options、no_tables_options、no_field_options等,要使用幾個值,用逗號將它們隔開。它並不保證能完全兼容,而是盡量兼容。

mysqldump  -uroot -p --all-databases --compatible=ansi

12、 –compact

導出更少的輸出信息(用於調試)。去掉註釋和頭尾等結構。可以使用選項:–skip-add-drop-table –skip-add-locks –skip-

comments --skip-disable-keys
mysqldump  -uroot -p --all-databases --compact

13、 –complete-insert, -c

使用完整的insert語句(包含列名稱)。這麼做能提高插入效率,但是可能會受到max_allowed_packet參數的影響而導致插入失敗。

mysqldump  -uroot -p --all-databases --complete-insert

14、 –compress, -C

在客戶端和服務器之間啟用壓縮傳遞所有信息

mysqldump  -uroot -p --all-databases --compress

15、 –create-options, -a

在CREATE TABLE語句中包括所有MySQL特性選項。(默認為打開狀態)

mysqldump  -uroot -p --all-databases

16、 –databases, -B

導出幾個數據庫。參數後面所有名字參量都被看作數據庫名。

mysqldump  -uroot -p --databases test mysql

17、 –debug

輸出debug信息,用於調試。默認值為:d:t:o,/tmp/mysqldump.trace

mysqldump  -uroot -p --all-databases --debug
mysqldump  -uroot -p --all-databases --debug=” d:t:o,/tmp/debug.trace”

18、 –debug-check

檢查內存和打開文件使用說明並退出。

mysqldump  -uroot -p --all-databases --debug-check

19、 –debug-info

輸出調試信息並退出

mysqldump  -uroot -p --all-databases --debug-info

20、 –default-character-set

設置默認字符集,默認值為utf8

mysqldump  -uroot -p --all-databases --default-character-set=latin1

21、 –delayed-insert

采用延時插入方式(INSERT DELAYED)導出數據

mysqldump  -uroot -p --all-databases --delayed-insert

22、 –delete-master-logs

master備份後刪除日志. 這個參數將自動激活–master-data。

mysqldump  -uroot -p --all-databases --delete-master-logs

23、 –disable-keys

對於每個表,用/*!40000 ALTER TABLE tbl_name DISABLE KEYS */;和/*!40000 ALTER TABLE tbl_name ENABLE KEYS */;語句引用INSERT語句。

這樣可以更快地導入dump出來的文件,因為它是在插入所有行後創建索引的。該選項隻適合MyISAM表,默認為打開狀態。

mysqldump  -uroot -p --all-databases 

24、 –dump-slave

該選項將導致主的binlog位置和文件名追加到導出數據的文件中。

設置為1時,將會以CHANGE MASTER命令輸出到數據文件;設置為2時,在命令前增加說明信息。

該選項將會打開–lock-all-tables,除非–single-transaction被指定。

該選項會自動關閉–lock-tables選項。默認值為0。

mysqldump  -uroot -p --all-databases --dump-slave=1
mysqldump  -uroot -p --all-databases --dump-slave=2

25、 –events, -E //導出事件。

mysqldump  -uroot -p --all-databases --events

26、 –extended-insert, -e

使用具有多個VALUES列的INSERT語法。這樣使導出文件更小,並加速導入時的速度。默認為打開狀態,使用–skip-extended-insert取消選項。

mysqldump  -uroot -p --all-databases
mysqldump  -uroot -p --all-databases--skip-extended-insert   (取消選項)

27、 –fields-terminated-by

導出文件中忽略給定字段。與–tab選項一起使用,不能用於–databases和–all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-terminated-by=”#”

28、 –fields-enclosed-by

輸出文件中的各個字段用給定字符包裹。與–tab選項一起使用,不能用於–databases和–all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql” --fields-enclosed-by=”#”

29、 –fields-optionally-enclosed-by

輸出文件中的各個字段用給定字符選擇性包裹。與–tab選項一起使用,不能用於–databases和–all-databases選項

mysqldump  -uroot -p test test --tab=”/home/mysql”  --fields-enclosed-by=”#” --fields-optionally-enclosed-by  =”#”

30、 –fields-escaped-by

輸出文件中的各個字段忽略給定字符。與–tab選項一起使用,不能用於–databases和–all-databases選項

mysqldump  -uroot -p mysql user --tab=”/home/mysql” --fields-escaped-by=”#”

31、 –flush-logs

開始導出之前刷新日志。

請註意:假如一次導出多個數據庫(使用選項–databases或者–all-databases),將會逐個數據庫刷新日志。除使用–lock-all-tables或者–master-data外。在這種情況下,日志將會被刷新一次,相應的所以表同時被鎖定。因此,如果打算同時導出和刷新日志應該使用–lock-all-tables 或者–master-data 和–flush-logs。

mysqldump  -uroot -p --all-databases --flush-logs

32、 –flush-privileges

在導出mysql數據庫之後,發出一條FLUSH PRIVILEGES 語句。為瞭正確恢復,該選項應該用於導出mysql數據庫和依賴mysql數據庫數據的任何時候。

mysqldump  -uroot -p --all-databases --flush-privileges

33、 –force //在導出過程中忽略出現的SQL錯誤。

mysqldump  -uroot -p --all-databases --force

34、 –help //顯示幫助信息並退出。

mysqldump  --help

35、 –hex-blob

使用十六進制格式導出二進制字符串字段。如果有二進制數據就必須使用該選項。影響到的字段類型有BINARY、VARBINARY、BLOB。

mysqldump  -uroot -p --all-databases --hex-blob

36、 –host, -h //需要導出的主機信息

mysqldump  -uroot -p --host=localhost --all-databases

37、 –ignore-table

不導出指定表。指定忽略多個表時,需要重復多次,每次一個表。每個表必須同時指定數據庫和表名。

例如:

--ignore-table=database.table1 --ignore-table=database.table2 ……
mysqldump  -uroot -p --host=localhost --all-databases --ignore-table=mysql.user

38、 –include-master-host-port

在–dump-slave產生的’CHANGE MASTER TO..’語句中增加’MASTER_HOST=<host>,MASTER_PORT=<port>’

mysqldump  -uroot -p --host=localhost --all-databases --include-master-host-port

39、 –insert-ignore

在插入行時使用INSERT IGNORE語句.

mysqldump  -uroot -p --host=localhost --all-databases --insert-ignore

40、 –lines-terminated-by

輸出文件的每行用給定字符串劃分。與–tab選項一起使用,不能用於–databases和–all-databases選項。

mysqldump  -uroot -p --host=localhost test test --tab=”/tmp/mysql”  --lines-terminated-by=”##”

41、 –lock-all-tables, -x

提交請求鎖定所有數據庫中的所有表,以保證數據的一致性。這是一個全局讀鎖,並且自動關閉–single-transaction 和–lock-tables 選項。

mysqldump  -uroot -p --host=localhost --all-databases --lock-all-tables

42、 –lock-tables, -l

開始導出前,鎖定所有表。用READ LOCAL鎖定表以允許MyISAM表並行插入。對於支持事務的表例如InnoDB和BDB,–single-transaction是一個更好的選擇,因為它根本不需要鎖定表。

請註意當導出多個數據庫時,–lock-tables分別為每個數據庫鎖定表。因此,該選項不能保證導出文件中的表在數據庫之間的邏輯一致性。不同數據庫表的導出狀態可以完全不同。

mysqldump  -uroot -p --host=localhost --all-databases --lock-tables

43、 –log-error

附加警告和錯誤信息到給定文件

mysqldump  -uroot -p --host=localhost --all-databases  --log-error=/tmp/mysqldump_error_log.err

44、 –master-data

該選項將binlog的位置和文件名追加到輸出文件中。如果為1,將會輸出CHANGE MASTER 命令;如果為2,輸出的CHANGE MASTER命令前添加註釋信息。

該選項將打開–lock-all-tables 選項,除非–single-transaction也被指定(在這種情況下,全局讀鎖在開始導出時獲得很短的時間;其他內容參考下面的–single-transaction選項)。

該選項自動關閉–lock-tables選項。

mysqldump  -uroot -p --host=localhost --all-databases --master-data=1;
mysqldump  -uroot -p --host=localhost --all-databases --master-data=2;

45、 –max_allowed_packet

服務器發送和接受的最大包長度。

mysqldump  -uroot -p --host=localhost --all-databases --max_allowed_packet=10240

46、 –net_buffer_length

TCP/IP和socket連接的緩存大小。

mysqldump  -uroot -p --host=localhost --all-databases --net_buffer_length=1024

47、 –no-autocommit

使用autocommit/commit 語句包裹表。

mysqldump  -uroot -p --host=localhost --all-databases --no-autocommit

48、 –no-create-db, -n

隻導出數據,而不添加CREATE DATABASE 語句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-db

49、 –no-create-info, -t

隻導出數據,而不添加CREATE TABLE 語句。

mysqldump  -uroot -p --host=localhost --all-databases --no-create-info

50、 –no-data, -d

不導出任何數據,隻導出數據庫表結構。

mysqldump  -uroot -p --host=localhost --all-databases --no-data

51、 –no-set-names, -N

等同於–skip-set-charset

mysqldump  -uroot -p --host=localhost --all-databases --no-set-names

52、 –opt

等同於–add-drop-table, –add-locks, –create-options, –quick, –extended-insert, –lock-tables, –set-charset, –disable-keys 該選項默認開啟, 可以用–skip-opt禁用.

mysqldump  -uroot -p --host=localhost --all-databases --opt

53、 –order-by-primary

如果存在主鍵,或者第一個唯一鍵,對每個表的記錄進行排序。在導出MyISAM表到InnoDB表時有效,但會使得導出工作花費很長時間。

mysqldump  -uroot -p --host=localhost --all-databases --order-by-primary

54、 –password, -p //連接數據庫密碼

55、 –pipe(windows系統可用)

使用命名管道連接mysql

mysqldump  -uroot -p --host=localhost --all-databases --pipe

56、 –port, -P //連接數據庫端口號

57、 –protocol

使用的連接協議,包括:tcp, socket, pipe, memory.

mysqldump  -uroot -p --host=localhost --all-databases --protocol=tcp

58、 –quick, -q

不緩沖查詢,直接導出到標準輸出。默認為打開狀態,使用–skip-quick取消該選項。

mysqldump  -uroot -p --host=localhost --all-databases 
mysqldump  -uroot -p --host=localhost --all-databases --skip-quick

59、 –quote-names,-Q

使用(`)引起表和列名。默認為打開狀態,使用–skip-quote-names取消該選項。

mysqldump  -uroot -p --host=localhost --all-databases
mysqldump  -uroot -p --host=localhost --all-databases --skip-quote-names

60、 –replace

使用REPLACE INTO 取代INSERT INTO.

mysqldump  -uroot -p --host=localhost --all-databases --replace

61、 –result-file, -r

直接輸出到指定文件中。該選項應該用在使用回車換行對(\\r\\n)換行的系統上(例如:DOS,Windows)。該選項確保隻有一行被使用。

mysqldump  -uroot -p --host=localhost --all-databases --result-file=/tmp/mysqldump_result_file.txt

62、 –routines, -R

導出存儲過程以及自定義函數。

mysqldump  -uroot -p --host=localhost --all-databases --routines

63、 –set-charset

添加’SET NAMES default_character_set’到輸出文件。默認為打開狀態,使用–skip-set-charset關閉選項。

mysqldump  -uroot -p --host=localhost --all-databases 
mysqldump  -uroot -p --host=localhost --all-databases --skip-set-charset

64、 –single-transaction

該選項在導出數據之前提交一個BEGIN SQL語句,BEGIN 不會阻塞任何應用程序且能保證導出時數據庫的一致性狀態。它隻適用於多版本存儲引擎,僅InnoDB。

本選項和–lock-tables 選項是互斥的,因為LOCK TABLES 會使任何掛起的事務隱含提交。

要想導出大表的話,應結合使用–quick 選項。

mysqldump  -uroot -p --host=localhost --all-databases --single-transaction

65、 –dump-date

將導出時間添加到輸出文件中。默認為打開狀態,使用–skip-dump-date關閉選項。

mysqldump  -uroot -p --host=localhost --all-databases
mysqldump  -uroot -p --host=localhost --all-databases --skip-dump-date

66、 –skip-opt //禁用–opt選項.

mysqldump  -uroot -p --host=localhost --all-databases --skip-opt

67、 –socket,-S

指定連接mysql的socket文件位置,默認路徑/tmp/mysql.sock

mysqldump  -uroot -p --host=localhost --all-databases --socket=/tmp/mysqld.sock

68、 –tab,-T

為每個表在給定路徑創建tab分割的文本文件。註意:僅僅用於mysqldump和mysqld服務器運行在相同機器上。

mysqldump  -uroot -p --host=localhost test test --tab="/home/mysql"

69、 –tables

覆蓋–databases (-B)參數,指定需要導出的表名。

mysqldump  -uroot -p --host=localhost --databases test --tables test

70、 –triggers

導出觸發器。該選項默認啟用,用–skip-triggers禁用它。

mysqldump  -uroot -p --host=localhost --all-databases --triggers

71、 –tz-utc

在導出頂部設置時區TIME_ZONE=’+00:00′ ,以保證在不同時區導出的TIMESTAMP 數據或者數據被移動其他時區時的正確性。

mysqldump  -uroot -p --host=localhost --all-databases --tz-utc

72、 –user, -u //指定連接的用戶名。

73、 –verbose, –v //輸出多種平臺信息。

74、 –version, -V

輸出mysqldump版本信息並退出

75、 –where, -w

隻轉儲給定的WHERE條件選擇的記錄。請註意如果條件包含命令解釋符專用空格或字符,一定要將條件引用起來。

mysqldump  -uroot -p --host=localhost --all-databases --where=” user='root'”

76、 –xml, -X //導出XML格式.

mysqldump  -uroot -p --host=localhost --all-databases --xml

77、 –plugin_dir

客戶端插件的目錄,用於兼容不同的插件版本。

mysqldump  -uroot -p --host=localhost --all-databases --plugin_dir=”/usr/local/lib/plugin”

78、 –default_auth

客戶端插件默認使用權限。

mysqldump  -uroot -p --host=localhost --all-databases --default-auth=”/usr/local/lib/plugin/<PLUGIN>”

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。

推薦閱讀: