สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

ปัจจุบัน REST API ได้กลายเป็นมาตรฐานสำหรับการพัฒนาเว็บแอปพลิเคชัน ทำให้คุณสามารถแบ่งการพัฒนาออกเป็นส่วนๆ สำหรับ UI ปัจจุบันมีการใช้เฟรมเวิร์กยอดนิยมต่างๆ เช่น Angular, React, Vue และอื่นๆ นักพัฒนาแบ็กเอนด์สามารถเลือกภาษาและเฟรมเวิร์กได้หลากหลาย วันนี้ฉันอยากจะพูดถึงกรอบเช่น เนสเจ. เราอยู่ใน ทดสอบ Mace เราใช้มันอย่างแข็งขันสำหรับโครงการภายใน ใช้รังและแพ็คเกจ @nestjsx/crudเราจะสร้างแอปพลิเคชัน CRUD อย่างง่าย

ทำไมต้อง NestJS

เมื่อเร็ว ๆ นี้ เฟรมเวิร์กแบ็กเอนด์จำนวนมากปรากฏในชุมชนจาวาสคริปต์ และถ้าในแง่ของฟังก์ชันการทำงานพวกเขาให้โอกาสที่คล้ายกับ Nest ดังนั้นสิ่งเดียวก็ชนะอย่างแน่นอน - นี่คือสถาปัตยกรรม ฟีเจอร์ NestJS ต่อไปนี้ช่วยให้คุณสร้างแอปพลิเคชันทางอุตสาหกรรมและการพัฒนาสเกลสำหรับทีมขนาดใหญ่:

  • โดยใช้ TypeScript เป็นภาษาพัฒนาหลัก แม้ว่า NestJS จะรองรับ JavaScript แต่ฟังก์ชันบางอย่างอาจไม่ทำงาน โดยเฉพาะเมื่อเป็นแพ็คเกจของบุคคลที่สาม
  • การมีคอนเทนเนอร์ DI ซึ่งช่วยให้คุณสร้างส่วนประกอบที่เชื่อมต่อกันอย่างหลวมๆ
  • การทำงานของเฟรมเวิร์กนั้นแบ่งออกเป็นส่วนประกอบอิสระที่ใช้แทนกันได้ ตัวอย่างเช่น ภายใต้ประทุนสามารถใช้เป็นกรอบได้ ด่วนและ อดอาหารในการทำงานกับฐานข้อมูลรังนอกกรอบให้การผูกกับ แบบพิมพ์, พังพอน, ภาคต่อ;
  • NestJS เป็นแพลตฟอร์มอิสระและรองรับ REST, GraphQL, Websockets, gRPC เป็นต้น

เฟรมเวิร์กนั้นได้รับแรงบันดาลใจจากเฟรมเวิร์กส่วนหน้าของ Angular และมีแนวคิดหลายอย่างที่เหมือนกัน

การติดตั้ง NestJS และการปรับใช้โครงการ

Nest มีแพ็คเกจ รัง/cli ซึ่งช่วยให้คุณปรับใช้เฟรมเวิร์กแอปพลิเคชันพื้นฐานได้อย่างรวดเร็ว ติดตั้งแพ็คเกจนี้ทั่วโลก:

npm install --global @nest/cli

หลังจากติดตั้งแล้ว เราจะสร้างเฟรมเวิร์กพื้นฐานของแอปพลิเคชันของเราด้วยชื่อ รัง-resที สิ่งนี้ทำได้โดยใช้คำสั่ง nest new nest-rest.

ทำรังรังใหม่ - พักผ่อน

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects $ nest new nest-rest
  We will scaffold your app in a few seconds..

CREATE /nest-rest/.prettierrc (51 bytes)
CREATE /nest-rest/README.md (3370 bytes)
CREATE /nest-rest/nest-cli.json (84 bytes)
CREATE /nest-rest/nodemon-debug.json (163 bytes)
CREATE /nest-rest/nodemon.json (67 bytes)
CREATE /nest-rest/package.json (1805 bytes)
CREATE /nest-rest/tsconfig.build.json (97 bytes)
CREATE /nest-rest/tsconfig.json (325 bytes)
CREATE /nest-rest/tslint.json (426 bytes)
CREATE /nest-rest/src/app.controller.spec.ts (617 bytes)
CREATE /nest-rest/src/app.controller.ts (274 bytes)
CREATE /nest-rest/src/app.module.ts (249 bytes)
CREATE /nest-rest/src/app.service.ts (142 bytes)
CREATE /nest-rest/src/main.ts (208 bytes)
CREATE /nest-rest/test/app.e2e-spec.ts (561 bytes)
CREATE /nest-rest/test/jest-e2e.json (183 bytes)

? Which package manager would you ️ to use? yarn
 Installation in progress... 

  Successfully created project nest-rest
  Get started with the following commands:

$ cd nest-rest
$ yarn run start

                          Thanks for installing Nest 
                 Please consider donating to our open collective
                        to help us maintain this package.

                 Donate: https://opencollective.com/nest

เราจะเลือกเส้นด้ายเป็นผู้จัดการบรรจุภัณฑ์ของเรา
ในตอนนี้ คุณสามารถเริ่มเซิร์ฟเวอร์ด้วยคำสั่ง npm start และไปยังที่อยู่ http://localhost:3000 คุณสามารถดูหน้าหลัก อย่างไรก็ตาม นี่ไม่ใช่สิ่งที่เรามาที่นี่เพื่อและเรากำลังเดินหน้าต่อไป

ตั้งค่าการทำงานกับฐานข้อมูล

ฉันเลือก PostrgreSQL เป็น DBMS สำหรับบทความนี้ ในความคิดของฉันไม่มีข้อโต้แย้งเกี่ยวกับรสนิยมนี่คือ DBMS ที่เป็นผู้ใหญ่ที่สุดที่มีคุณสมบัติที่จำเป็นทั้งหมด ดังที่ได้กล่าวไปแล้ว Nest ให้การรวมเข้ากับแพ็คเกจต่าง ๆ สำหรับการทำงานกับฐานข้อมูล เพราะ เนื่องจากตัวเลือกของฉันอยู่ที่ PostgreSQL การเลือก TypeORM เป็น ORM จึงสมเหตุสมผล ติดตั้งแพ็คเกจที่จำเป็นสำหรับการรวมเข้ากับฐานข้อมูล:

yarn add typeorm @nestjs/typeorm pg

ตามลำดับ แต่ละแพ็คเกจมีไว้เพื่ออะไร:

  1. typeorm - แพ็คเกจโดยตรงจาก ORM เอง
  2. @nestjs/typeorm - แพ็คเกจ TypeORM สำหรับ NestJS เพิ่มโมดูลสำหรับนำเข้าโมดูลโครงการ เช่นเดียวกับชุดผู้ช่วยตกแต่ง
  3. pg เป็นไดรเวอร์สำหรับการทำงานกับ PostgreSQL

ตกลง ติดตั้งแพ็คเกจแล้ว ตอนนี้คุณต้องเริ่มฐานข้อมูลเอง ในการปรับใช้ฐาน ฉันจะใช้ docker-compose.yml กับเนื้อหาต่อไปนี้:

นักเทียบท่า-compose.yml

version: '3.1'

services:
  db:
    image: postgres:11.2
    restart: always
    environment:
      POSTGRES_PASSWORD: example
    volumes:
      - ../db:/var/lib/postgresql/data
      - ./postgresql.conf:/etc/postgresql/postgresql.conf
    ports:
      - 5432:5432
  adminer:
    image: adminer
    restart: always
    ports:
      - 8080:8080

อย่างที่คุณเห็น ไฟล์นี้กำหนดค่าการเปิดใช้คอนเทนเนอร์ 2 รายการ:

  1. db เป็นคอนเทนเนอร์โดยตรงกับฐานข้อมูล ในกรณีของเรา ใช้ postgresql เวอร์ชัน 11.2
  2. ผู้ดูแลระบบ - ผู้จัดการฐานข้อมูล จัดเตรียมเว็บอินเตอร์เฟสสำหรับการดูและจัดการฐานข้อมูล

ในการทำงานกับการเชื่อมต่อ tcp ฉันได้เพิ่มการกำหนดค่าต่อไปนี้

postgresql.conf

# -----------------------------
# PostgreSQL configuration file
# -----------------------------
#
# This file consists of lines of the form:
#
#   name = value
#
# (The "=" is optional.)  Whitespace may be used.  Comments are introduced with
# "#" anywhere on a line.  The complete list of parameter names and allowed
# values can be found in the PostgreSQL documentation.
#
# The commented-out settings shown in this file represent the default values.
# Re-commenting a setting is NOT sufficient to revert it to the default value;
# you need to reload the server.
#
# This file is read on server startup and when the server receives a SIGHUP
# signal.  If you edit the file on a running system, you have to SIGHUP the
# server for the changes to take effect, run "pg_ctl reload", or execute
# "SELECT pg_reload_conf()".  Some parameters, which are marked below,
# require a server shutdown and restart to take effect.
#
# Any parameter can also be given as a command-line option to the server, e.g.,
# "postgres -c log_connections=on".  Some parameters can be changed at run time
# with the "SET" SQL command.
#
# Memory units:  kB = kilobytes        Time units:  ms  = milliseconds
#                MB = megabytes                     s   = seconds
#                GB = gigabytes                     min = minutes
#                TB = terabytes                     h   = hours
#                                                   d   = days
#------------------------------------------------------------------------------
# FILE LOCATIONS
#------------------------------------------------------------------------------
# The default values of these variables are driven from the -D command-line
# option or PGDATA environment variable, represented here as ConfigDir.
#data_directory = 'ConfigDir'       # use data in another directory
# (change requires restart)
#hba_file = 'ConfigDir/pg_hba.conf' # host-based authentication file
# (change requires restart)
#ident_file = 'ConfigDir/pg_ident.conf' # ident configuration file
# (change requires restart)
# If external_pid_file is not explicitly set, no extra PID file is written.
#external_pid_file = ''         # write an extra PID file
# (change requires restart)
#------------------------------------------------------------------------------
# CONNECTIONS AND AUTHENTICATION
#------------------------------------------------------------------------------
# - Connection Settings -
listen_addresses = '*'
#listen_addresses = 'localhost'     # what IP address(es) to listen on;
# comma-separated list of addresses;
# defaults to 'localhost'; use '*' for all
# (change requires restart)
#port = 5432                # (change requires restart)
#max_connections = 100          # (change requires restart)
#superuser_reserved_connections = 3 # (change requires restart)
#unix_socket_directories = '/tmp'   # comma-separated list of directories
# (change requires restart)
#unix_socket_group = ''         # (change requires restart)
#unix_socket_permissions = 0777     # begin with 0 to use octal notation
# (change requires restart)
#bonjour = off              # advertise server via Bonjour
# (change requires restart)
#bonjour_name = ''          # defaults to the computer name
# (change requires restart)
# - TCP Keepalives -
# see "man 7 tcp" for details
#tcp_keepalives_idle = 0        # TCP_KEEPIDLE, in seconds;
# 0 selects the system default
#tcp_keepalives_interval = 0        # TCP_KEEPINTVL, in seconds;
# 0 selects the system default
#tcp_keepalives_count = 0       # TCP_KEEPCNT;
# 0 selects the system default
# - Authentication -
#authentication_timeout = 1min      # 1s-600s
#password_encryption = md5      # md5 or scram-sha-256
#db_user_namespace = off
# GSSAPI using Kerberos
#krb_server_keyfile = ''
#krb_caseins_users = off
# - SSL -
#ssl = off
#ssl_ca_file = ''
#ssl_cert_file = 'server.crt'
#ssl_crl_file = ''
#ssl_key_file = 'server.key'
#ssl_ciphers = 'HIGH:MEDIUM:+3DES:!aNULL' # allowed SSL ciphers
#ssl_prefer_server_ciphers = on
#ssl_ecdh_curve = 'prime256v1'
#ssl_min_protocol_version = 'TLSv1'
#ssl_max_protocol_version = ''
#ssl_dh_params_file = ''
#ssl_passphrase_command = ''
#ssl_passphrase_command_supports_reload = off
#------------------------------------------------------------------------------
# RESOURCE USAGE (except WAL)
#------------------------------------------------------------------------------
# - Memory -
#shared_buffers = 32MB          # min 128kB
# (change requires restart)
#huge_pages = try           # on, off, or try
# (change requires restart)
#temp_buffers = 8MB         # min 800kB
#max_prepared_transactions = 0      # zero disables the feature
# (change requires restart)
# Caution: it is not advisable to set max_prepared_transactions nonzero unless
# you actively intend to use prepared transactions.
#work_mem = 4MB             # min 64kB
#maintenance_work_mem = 64MB        # min 1MB
#autovacuum_work_mem = -1       # min 1MB, or -1 to use maintenance_work_mem
#max_stack_depth = 2MB          # min 100kB
#shared_memory_type = mmap      # the default is the first option
# supported by the operating system:
#   mmap
#   sysv
#   windows
# (change requires restart)
#dynamic_shared_memory_type = posix # the default is the first option
# supported by the operating system:
#   posix
#   sysv
#   windows
#   mmap
# (change requires restart)
# - Disk -
#temp_file_limit = -1           # limits per-process temp file space
# in kB, or -1 for no limit
# - Kernel Resources -
#max_files_per_process = 1000       # min 25
# (change requires restart)
# - Cost-Based Vacuum Delay -
#vacuum_cost_delay = 0          # 0-100 milliseconds (0 disables)
#vacuum_cost_page_hit = 1       # 0-10000 credits
#vacuum_cost_page_miss = 10     # 0-10000 credits
#vacuum_cost_page_dirty = 20        # 0-10000 credits
#vacuum_cost_limit = 200        # 1-10000 credits
# - Background Writer -
#bgwriter_delay = 200ms         # 10-10000ms between rounds
#bgwriter_lru_maxpages = 100        # max buffers written/round, 0 disables
#bgwriter_lru_multiplier = 2.0      # 0-10.0 multiplier on buffers scanned/round
#bgwriter_flush_after = 0       # measured in pages, 0 disables
# - Asynchronous Behavior -
#effective_io_concurrency = 1       # 1-1000; 0 disables prefetching
#max_worker_processes = 8       # (change requires restart)
#max_parallel_maintenance_workers = 2   # taken from max_parallel_workers
#max_parallel_workers_per_gather = 2    # taken from max_parallel_workers
#parallel_leader_participation = on
#max_parallel_workers = 8       # maximum number of max_worker_processes that
# can be used in parallel operations
#old_snapshot_threshold = -1        # 1min-60d; -1 disables; 0 is immediate
# (change requires restart)
#backend_flush_after = 0        # measured in pages, 0 disables
#------------------------------------------------------------------------------
# WRITE-AHEAD LOG
#------------------------------------------------------------------------------
# - Settings -
#wal_level = replica            # minimal, replica, or logical
# (change requires restart)
#fsync = on             # flush data to disk for crash safety
# (turning this off can cause
# unrecoverable data corruption)
#synchronous_commit = on        # synchronization level;
# off, local, remote_write, remote_apply, or on
#wal_sync_method = fsync        # the default is the first option
# supported by the operating system:
#   open_datasync
#   fdatasync (default on Linux)
#   fsync
#   fsync_writethrough
#   open_sync
#full_page_writes = on          # recover from partial page writes
#wal_compression = off          # enable compression of full-page writes
#wal_log_hints = off            # also do full page writes of non-critical updates
# (change requires restart)
#wal_buffers = -1           # min 32kB, -1 sets based on shared_buffers
# (change requires restart)
#wal_writer_delay = 200ms       # 1-10000 milliseconds
#wal_writer_flush_after = 1MB       # measured in pages, 0 disables
#commit_delay = 0           # range 0-100000, in microseconds
#commit_siblings = 5            # range 1-1000
# - Checkpoints -
#checkpoint_timeout = 5min      # range 30s-1d
#max_wal_size = 1GB
#min_wal_size = 80MB
#checkpoint_completion_target = 0.5 # checkpoint target duration, 0.0 - 1.0
#checkpoint_flush_after = 0     # measured in pages, 0 disables
#checkpoint_warning = 30s       # 0 disables
# - Archiving -
#archive_mode = off     # enables archiving; off, on, or always
# (change requires restart)
#archive_command = ''       # command to use to archive a logfile segment
# placeholders: %p = path of file to archive
#               %f = file name only
# e.g. 'test ! -f /mnt/server/archivedir/%f && cp %p /mnt/server/archivedir/%f'
#archive_timeout = 0        # force a logfile segment switch after this
# number of seconds; 0 disables
# - Archive Recovery -
# These are only used in recovery mode.
#restore_command = ''       # command to use to restore an archived logfile segment
# placeholders: %p = path of file to restore
#               %f = file name only
# e.g. 'cp /mnt/server/archivedir/%f %p'
# (change requires restart)
#archive_cleanup_command = ''   # command to execute at every restartpoint
#recovery_end_command = ''  # command to execute at completion of recovery
# - Recovery Target -
# Set these only when performing a targeted recovery.
#recovery_target = ''       # 'immediate' to end recovery as soon as a
# consistent state is reached
# (change requires restart)
#recovery_target_name = ''  # the named restore point to which recovery will proceed
# (change requires restart)
#recovery_target_time = ''  # the time stamp up to which recovery will proceed
# (change requires restart)
#recovery_target_xid = ''   # the transaction ID up to which recovery will proceed
# (change requires restart)
#recovery_target_lsn = ''   # the WAL LSN up to which recovery will proceed
# (change requires restart)
#recovery_target_inclusive = on # Specifies whether to stop:
# just after the specified recovery target (on)
# just before the recovery target (off)
# (change requires restart)
#recovery_target_timeline = 'latest'    # 'current', 'latest', or timeline ID
# (change requires restart)
#recovery_target_action = 'pause'   # 'pause', 'promote', 'shutdown'
# (change requires restart)
#------------------------------------------------------------------------------
# REPLICATION
#------------------------------------------------------------------------------
# - Sending Servers -
# Set these on the master and on any standby that will send replication data.
#max_wal_senders = 10       # max number of walsender processes
# (change requires restart)
#wal_keep_segments = 0      # in logfile segments; 0 disables
#wal_sender_timeout = 60s   # in milliseconds; 0 disables
#max_replication_slots = 10 # max number of replication slots
# (change requires restart)
#track_commit_timestamp = off   # collect timestamp of transaction commit
# (change requires restart)
# - Master Server -
# These settings are ignored on a standby server.
#synchronous_standby_names = '' # standby servers that provide sync rep
# method to choose sync standbys, number of sync standbys,
# and comma-separated list of application_name
# from standby(s); '*' = all
#vacuum_defer_cleanup_age = 0   # number of xacts by which cleanup is delayed
# - Standby Servers -
# These settings are ignored on a master server.
#primary_conninfo = ''          # connection string to sending server
# (change requires restart)
#primary_slot_name = ''         # replication slot on sending server
# (change requires restart)
#promote_trigger_file = ''      # file name whose presence ends recovery
#hot_standby = on           # "off" disallows queries during recovery
# (change requires restart)
#max_standby_archive_delay = 30s    # max delay before canceling queries
# when reading WAL from archive;
# -1 allows indefinite delay
#max_standby_streaming_delay = 30s  # max delay before canceling queries
# when reading streaming WAL;
# -1 allows indefinite delay
#wal_receiver_status_interval = 10s # send replies at least this often
# 0 disables
#hot_standby_feedback = off     # send info from standby to prevent
# query conflicts
#wal_receiver_timeout = 60s     # time that receiver waits for
# communication from master
# in milliseconds; 0 disables
#wal_retrieve_retry_interval = 5s   # time to wait before retrying to
# retrieve WAL after a failed attempt
#recovery_min_apply_delay = 0       # minimum delay for applying changes during recovery
# - Subscribers -
# These settings are ignored on a publisher.
#max_logical_replication_workers = 4    # taken from max_worker_processes
# (change requires restart)
#max_sync_workers_per_subscription = 2  # taken from max_logical_replication_workers
#------------------------------------------------------------------------------
# QUERY TUNING
#------------------------------------------------------------------------------
# - Planner Method Configuration -
#enable_bitmapscan = on
#enable_hashagg = on
#enable_hashjoin = on
#enable_indexscan = on
#enable_indexonlyscan = on
#enable_material = on
#enable_mergejoin = on
#enable_nestloop = on
#enable_parallel_append = on
#enable_seqscan = on
#enable_sort = on
#enable_tidscan = on
#enable_partitionwise_join = off
#enable_partitionwise_aggregate = off
#enable_parallel_hash = on
#enable_partition_pruning = on
# - Planner Cost Constants -
#seq_page_cost = 1.0            # measured on an arbitrary scale
#random_page_cost = 4.0         # same scale as above
#cpu_tuple_cost = 0.01          # same scale as above
#cpu_index_tuple_cost = 0.005       # same scale as above
#cpu_operator_cost = 0.0025     # same scale as above
#parallel_tuple_cost = 0.1      # same scale as above
#parallel_setup_cost = 1000.0   # same scale as above
#jit_above_cost = 100000        # perform JIT compilation if available
# and query more expensive than this;
# -1 disables
#jit_inline_above_cost = 500000     # inline small functions if query is
# more expensive than this; -1 disables
#jit_optimize_above_cost = 500000   # use expensive JIT optimizations if
# query is more expensive than this;
# -1 disables
#min_parallel_table_scan_size = 8MB
#min_parallel_index_scan_size = 512kB
#effective_cache_size = 4GB
# - Genetic Query Optimizer -
#geqo = on
#geqo_threshold = 12
#geqo_effort = 5            # range 1-10
#geqo_pool_size = 0         # selects default based on effort
#geqo_generations = 0           # selects default based on effort
#geqo_selection_bias = 2.0      # range 1.5-2.0
#geqo_seed = 0.0            # range 0.0-1.0
# - Other Planner Options -
#default_statistics_target = 100    # range 1-10000
#constraint_exclusion = partition   # on, off, or partition
#cursor_tuple_fraction = 0.1        # range 0.0-1.0
#from_collapse_limit = 8
#join_collapse_limit = 8        # 1 disables collapsing of explicit
# JOIN clauses
#force_parallel_mode = off
#jit = on               # allow JIT compilation
#plan_cache_mode = auto         # auto, force_generic_plan or
# force_custom_plan
#------------------------------------------------------------------------------
# REPORTING AND LOGGING
#------------------------------------------------------------------------------
# - Where to Log -
#log_destination = 'stderr'     # Valid values are combinations of
# stderr, csvlog, syslog, and eventlog,
# depending on platform.  csvlog
# requires logging_collector to be on.
# This is used when logging to stderr:
#logging_collector = off        # Enable capturing of stderr and csvlog
# into log files. Required to be on for
# csvlogs.
# (change requires restart)
# These are only used if logging_collector is on:
#log_directory = 'log'          # directory where log files are written,
# can be absolute or relative to PGDATA
#log_filename = 'postgresql-%Y-%m-%d_%H%M%S.log'    # log file name pattern,
# can include strftime() escapes
#log_file_mode = 0600           # creation mode for log files,
# begin with 0 to use octal notation
#log_truncate_on_rotation = off     # If on, an existing log file with the
# same name as the new log file will be
# truncated rather than appended to.
# But such truncation only occurs on
# time-driven rotation, not on restarts
# or size-driven rotation.  Default is
# off, meaning append to existing files
# in all cases.
#log_rotation_age = 1d          # Automatic rotation of logfiles will
# happen after that time.  0 disables.
#log_rotation_size = 10MB       # Automatic rotation of logfiles will
# happen after that much log output.
# 0 disables.
# These are relevant when logging to syslog:
#syslog_facility = 'LOCAL0'
#syslog_ident = 'postgres'
#syslog_sequence_numbers = on
#syslog_split_messages = on
# This is only relevant when logging to eventlog (win32):
# (change requires restart)
#event_source = 'PostgreSQL'
# - When to Log -
#log_min_messages = warning     # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   info
#   notice
#   warning
#   error
#   log
#   fatal
#   panic
#log_min_error_statement = error    # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   info
#   notice
#   warning
#   error
#   log
#   fatal
#   panic (effectively off)
#log_min_duration_statement = -1    # logs statements and their durations
# according to log_statement_sample_rate. -1 is disabled,
# 0 logs all statement, > 0 logs only statements running at
# least this number of milliseconds.
#log_statement_sample_rate = 1  # Fraction of logged statements over
# log_min_duration_statement. 1.0 logs all statements,
# 0 never logs.
# - What to Log -
#debug_print_parse = off
#debug_print_rewritten = off
#debug_print_plan = off
#debug_pretty_print = on
#log_checkpoints = off
#log_connections = off
#log_disconnections = off
#log_duration = off
#log_error_verbosity = default      # terse, default, or verbose messages
#log_hostname = off
#log_line_prefix = '%m [%p] '       # special values:
#   %a = application name
#   %u = user name
#   %d = database name
#   %r = remote host and port
#   %h = remote host
#   %p = process ID
#   %t = timestamp without milliseconds
#   %m = timestamp with milliseconds
#   %n = timestamp with milliseconds (as a Unix epoch)
#   %i = command tag
#   %e = SQL state
#   %c = session ID
#   %l = session line number
#   %s = session start timestamp
#   %v = virtual transaction ID
#   %x = transaction ID (0 if none)
#   %q = stop here in non-session
#        processes
#   %% = '%'
# e.g. '<%u%%%d> '
#log_lock_waits = off           # log lock waits >= deadlock_timeout
#log_statement = 'none'         # none, ddl, mod, all
#log_replication_commands = off
#log_temp_files = -1            # log temporary files equal or larger
# than the specified size in kilobytes;
# -1 disables, 0 logs all temp files
#log_timezone = 'GMT'
#------------------------------------------------------------------------------
# PROCESS TITLE
#------------------------------------------------------------------------------
#cluster_name = ''          # added to process titles if nonempty
# (change requires restart)
#update_process_title = on
#------------------------------------------------------------------------------
# STATISTICS
#------------------------------------------------------------------------------
# - Query and Index Statistics Collector -
#track_activities = on
#track_counts = on
#track_io_timing = off
#track_functions = none         # none, pl, all
#track_activity_query_size = 1024   # (change requires restart)
#stats_temp_directory = 'pg_stat_tmp'
# - Monitoring -
#log_parser_stats = off
#log_planner_stats = off
#log_executor_stats = off
#log_statement_stats = off
#------------------------------------------------------------------------------
# AUTOVACUUM
#------------------------------------------------------------------------------
#autovacuum = on            # Enable autovacuum subprocess?  'on'
# requires track_counts to also be on.
#log_autovacuum_min_duration = -1   # -1 disables, 0 logs all actions and
# their durations, > 0 logs only
# actions running at least this number
# of milliseconds.
#autovacuum_max_workers = 3     # max number of autovacuum subprocesses
# (change requires restart)
#autovacuum_naptime = 1min      # time between autovacuum runs
#autovacuum_vacuum_threshold = 50   # min number of row updates before
# vacuum
#autovacuum_analyze_threshold = 50  # min number of row updates before
# analyze
#autovacuum_vacuum_scale_factor = 0.2   # fraction of table size before vacuum
#autovacuum_analyze_scale_factor = 0.1  # fraction of table size before analyze
#autovacuum_freeze_max_age = 200000000  # maximum XID age before forced vacuum
# (change requires restart)
#autovacuum_multixact_freeze_max_age = 400000000    # maximum multixact age
# before forced vacuum
# (change requires restart)
#autovacuum_vacuum_cost_delay = 2ms # default vacuum cost delay for
# autovacuum, in milliseconds;
# -1 means use vacuum_cost_delay
#autovacuum_vacuum_cost_limit = -1  # default vacuum cost limit for
# autovacuum, -1 means use
# vacuum_cost_limit
#------------------------------------------------------------------------------
# CLIENT CONNECTION DEFAULTS
#------------------------------------------------------------------------------
# - Statement Behavior -
#client_min_messages = notice       # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   log
#   notice
#   warning
#   error
#search_path = '"$user", public'    # schema names
#row_security = on
#default_tablespace = ''        # a tablespace name, '' uses the default
#temp_tablespaces = ''          # a list of tablespace names, '' uses
# only default tablespace
#check_function_bodies = on
#default_transaction_isolation = 'read committed'
#default_transaction_read_only = off
#default_transaction_deferrable = off
#session_replication_role = 'origin'
#statement_timeout = 0          # in milliseconds, 0 is disabled
#lock_timeout = 0           # in milliseconds, 0 is disabled
#idle_in_transaction_session_timeout = 0    # in milliseconds, 0 is disabled
#vacuum_freeze_min_age = 50000000
#vacuum_freeze_table_age = 150000000
#vacuum_multixact_freeze_min_age = 5000000
#vacuum_multixact_freeze_table_age = 150000000
#vacuum_cleanup_index_scale_factor = 0.1    # fraction of total number of tuples
# before index cleanup, 0 always performs
# index cleanup
#bytea_output = 'hex'           # hex, escape
#xmlbinary = 'base64'
#xmloption = 'content'
#gin_fuzzy_search_limit = 0
#gin_pending_list_limit = 4MB
# - Locale and Formatting -
#datestyle = 'iso, mdy'
#intervalstyle = 'postgres'
#timezone = 'GMT'
#timezone_abbreviations = 'Default'     # Select the set of available time zone
# abbreviations.  Currently, there are
#   Default
#   Australia (historical usage)
#   India
# You can create your own file in
# share/timezonesets/.
#extra_float_digits = 1         # min -15, max 3; any value >0 actually
# selects precise output mode
#client_encoding = sql_ascii        # actually, defaults to database
# encoding
# These settings are initialized by initdb, but they can be changed.
#lc_messages = 'C'          # locale for system error message
# strings
#lc_monetary = 'C'          # locale for monetary formatting
#lc_numeric = 'C'           # locale for number formatting
#lc_time = 'C'              # locale for time formatting
# default configuration for text search
#default_text_search_config = 'pg_catalog.simple'
# - Shared Library Preloading -
#shared_preload_libraries = ''  # (change requires restart)
#local_preload_libraries = ''
#session_preload_libraries = ''
#jit_provider = 'llvmjit'       # JIT library to use
# - Other Defaults -
#dynamic_library_path = '$libdir'
#------------------------------------------------------------------------------
# LOCK MANAGEMENT
#------------------------------------------------------------------------------
#deadlock_timeout = 1s
#max_locks_per_transaction = 64     # min 10
# (change requires restart)
#max_pred_locks_per_transaction = 64    # min 10
# (change requires restart)
#max_pred_locks_per_relation = -2   # negative values mean
# (max_pred_locks_per_transaction
#  / -max_pred_locks_per_relation) - 1
#max_pred_locks_per_page = 2            # min 0
#------------------------------------------------------------------------------
# VERSION AND PLATFORM COMPATIBILITY
#------------------------------------------------------------------------------
# - Previous PostgreSQL Versions -
#array_nulls = on
#backslash_quote = safe_encoding    # on, off, or safe_encoding
#escape_string_warning = on
#lo_compat_privileges = off
#operator_precedence_warning = off
#quote_all_identifiers = off
#standard_conforming_strings = on
#synchronize_seqscans = on
# - Other Platforms and Clients -
#transform_null_equals = off
#------------------------------------------------------------------------------
# ERROR HANDLING
#------------------------------------------------------------------------------
#exit_on_error = off            # terminate session on any error?
#restart_after_crash = on       # reinitialize after backend crash?
#data_sync_retry = off          # retry or panic on failure to fsync
# data?
# (change requires restart)
#------------------------------------------------------------------------------
# CONFIG FILE INCLUDES
#------------------------------------------------------------------------------
# These options allow settings to be loaded from files other than the
# default postgresql.conf.
#include_dir = 'conf.d'         # include files ending in '.conf' from
# directory 'conf.d'
#include_if_exists = 'exists.conf'  # include file only if it exists
#include = 'special.conf'       # include file
#------------------------------------------------------------------------------
# CUSTOMIZED OPTIONS
#------------------------------------------------------------------------------
# Add settings for extensions here

เพียงเท่านี้คุณก็เรียกใช้คอนเทนเนอร์ได้ด้วยคำสั่ง docker-compose up -d. หรือในคอนโซลแยกต่างหากด้วยคำสั่ง docker-compose up.

ดังนั้นแพ็คเกจจึงถูกติดตั้ง เปิดตัวฐาน ยังคงทำให้พวกเขาเป็นเพื่อนกัน ในการดำเนินการนี้ ให้เพิ่มไฟล์ ormconfig.js ที่รูทของโปรเจ็กต์โดยมีเนื้อหาต่อไปนี้:

ออร์มคอนฟิก.js

const process = require('process');
const username = process.env.POSTGRES_USER || "postgres";
const password = process.env.POSTGRES_PASSWORD || "example";
module.exports = {
"type": "postgres",
"host": "localhost",
"port": 5432,
username,
password,
"database": "postgres",
"synchronize": true,
"dropSchema": false,
"logging": true,
"entities": [__dirname + "/src/**/*.entity.ts", __dirname + "/dist/**/*.entity.js"],
"migrations": ["migrations/**/*.ts"],
"subscribers": ["subscriber/**/*.ts", "dist/subscriber/**/.js"],
"cli": {
"entitiesDir": "src",
"migrationsDir": "migrations",
"subscribersDir": "subscriber"
}
}

การกำหนดค่านี้จะใช้สำหรับ cli typeorm

มาดูการกำหนดค่านี้ให้ละเอียดยิ่งขึ้น ในบรรทัดที่ 3 และ 4 เราได้รับชื่อผู้ใช้และรหัสผ่านจากตัวแปรสภาพแวดล้อม สิ่งนี้มีประโยชน์เมื่อคุณมีหลายสภาพแวดล้อม (dev, stage, prod เป็นต้น) ชื่อผู้ใช้เริ่มต้นคือ postgres ตัวอย่างรหัสผ่าน มิฉะนั้น การกำหนดค่าจะเล็กน้อย ดังนั้นเราจะมุ่งเน้นไปที่พารามิเตอร์ที่น่าสนใจที่สุดเท่านั้น:

  • ซิงโครไนซ์ ระบุว่าควรสร้างสคีมาฐานข้อมูลโดยอัตโนมัติเมื่อแอปพลิเคชันเริ่มทำงานหรือไม่ โปรดใช้ความระมัดระวังกับตัวเลือกนี้และอย่าใช้ในการผลิต มิฉะนั้น คุณจะสูญเสียข้อมูล ตัวเลือกนี้มีประโยชน์เมื่อพัฒนาและดีบักแอปพลิเคชัน คุณสามารถใช้คำสั่งแทนตัวเลือกนี้ schema:sync จาก CLI TypeORM
  • dropSchema - วาง schema ทุกครั้งที่สร้างการเชื่อมต่อ เช่นเดียวกับตัวเลือกก่อนหน้านี้ ควรใช้ตัวเลือกนี้ในระหว่างการพัฒนาและแก้ไขข้อบกพร่องของแอปพลิเคชันเท่านั้น
  • เอนทิตี - เส้นทางใดที่จะค้นหาคำอธิบายของแบบจำลอง โปรดทราบว่ารองรับการค้นหาหน้ากาก
  • cli.entitiesDir เป็นไดเร็กทอรีที่ควรเพิ่มโมเดลที่สร้างจาก CLI TypeORM ตามค่าเริ่มต้น

เพื่อให้เราใช้คุณสมบัติทั้งหมดของ TypeORM ในแอปพลิเคชัน Nest เราจำเป็นต้องนำเข้าโมดูล TypeOrmModule в AppModule. เหล่านั้น. ของคุณ AppModule จะมีลักษณะดังนี้:

app.module.ts

import { Module } from '@nestjs/common';
import { AppController } from './app.controller';
import { AppService } from './app.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import * as process from "process";
const username = process.env.POSTGRES_USER || 'postgres';
const password = process.env.POSTGRES_PASSWORD || 'example';
@Module({
imports: [
TypeOrmModule.forRoot({
type: 'postgres',
host: 'localhost',
port: 5432,
username,
password,
database: 'postgres',
entities: [__dirname + '/**/*.entity{.ts,.js}'],
synchronize: true,
}),
],
controllers: [AppController],
providers: [AppService],
})
export class AppModule {}

ตามที่คุณสังเกตเห็นในวิธีการ forRoot การกำหนดค่าเดียวกันสำหรับการทำงานกับฐานข้อมูลจะถูกส่งผ่านในไฟล์ ormconfig.ts

สัมผัสสุดท้ายยังคงอยู่ - เพื่อเพิ่มงานบางอย่างสำหรับการทำงานกับ TypeORM ใน package.json ความจริงก็คือ CLI เขียนด้วยจาวาสคริปต์และรันในสภาพแวดล้อม nodejs อย่างไรก็ตาม แบบจำลองและการโยกย้ายทั้งหมดของเราจะถูกเขียนด้วยตัวพิมพ์ ดังนั้นจึงจำเป็นต้องแปลการโอนย้ายและโมเดลของเราก่อนที่จะใช้ CLI ในการทำเช่นนี้เราต้องการแพ็คเกจ ts-node:

yarn add -D ts-node

หลังจากนั้น ให้เพิ่มคำสั่งที่จำเป็นใน package.json:

"typeorm": "ts-node -r tsconfig-paths/register ./node_modules/typeorm/cli.js",
"migration:generate": "yarn run typeorm migration:generate -n",
"migration:create": "yarn run typeorm migration:create -n",
"migration:run": "yarn run typeorm migration:run"

คำสั่งแรก typeorm เพิ่ม ts-node wrapper เพื่อเรียกใช้ TypeORM cli คำสั่งที่เหลือเป็นทางลัดที่มีประโยชน์ซึ่งคุณในฐานะนักพัฒนาจะใช้เกือบทุกวัน:
migration:generate - สร้างการโยกย้ายตามการเปลี่ยนแปลงในโมเดลของคุณ
migration:create - สร้างการโยกย้ายที่ว่างเปล่า
migration:run - เริ่มการย้ายข้อมูล
ตอนนี้ทุกอย่างแน่นอน เราได้เพิ่มแพ็คเกจที่จำเป็น กำหนดค่าแอปพลิเคชันให้ทำงานกับฐานข้อมูลทั้งจาก cli และจากแอปพลิเคชันเอง และยังเปิดตัว DBMS ได้เวลาเพิ่มตรรกะให้กับแอปพลิเคชันของเราแล้ว

การติดตั้งแพ็คเกจสำหรับสร้าง CRUD

เมื่อใช้เฉพาะ Nest คุณสามารถสร้าง API ที่ช่วยให้สร้าง อ่าน อัปเดต และลบเอนทิตีได้ โซลูชันดังกล่าวจะมีความยืดหยุ่นมากที่สุดเท่าที่จะเป็นไปได้ แต่ในบางกรณีก็จะซ้ำซ้อน ตัวอย่างเช่น หากคุณต้องการสร้างต้นแบบอย่างรวดเร็ว คุณมักจะยอมเสียสละความยืดหยุ่นเพื่อเห็นแก่ความเร็วในการพัฒนา เฟรมเวิร์กจำนวนมากมีฟังก์ชันการสร้าง CRUD โดยอธิบายโมเดลข้อมูลของเอนทิตีเฉพาะ และเนสท์ก็ไม่มีข้อยกเว้น! ฟังก์ชันนี้มีให้ในแพ็คเกจ @nestjsx/crud. ความเป็นไปได้นั้นน่าสนใจมาก:

  • ติดตั้งและกำหนดค่าได้ง่าย
  • ความเป็นอิสระจาก DBMS;
  • ภาษาคิวรีที่มีประสิทธิภาพพร้อมความสามารถในการกรอง แบ่งหน้า เรียงลำดับ โหลดความสัมพันธ์และเอนทิตีที่ซ้อนกัน การแคช ฯลฯ
  • แพ็คเกจสำหรับสร้างคำขอสำหรับส่วนหน้า
  • คำจำกัดความใหม่ง่าย ๆ ของวิธีการควบคุม
  • การกำหนดค่าขนาดเล็ก
  • การสนับสนุนเอกสารกร่าง

การทำงานแบ่งออกเป็นหลายแพ็คเกจ:

  • @nestjsx/crud - แพ็คเกจพื้นฐานที่มัณฑนากรจัดเตรียมไว้ให้ หยาบ() สำหรับการสร้างเส้นทาง การกำหนดค่า และการตรวจสอบ;
  • @nestjsx/crud-request - แพ็คเกจที่มีตัวสร้างแบบสอบถาม / ตัวแยกวิเคราะห์สำหรับใช้ในส่วนหน้า
  • @nestjsx/crud-typeform - แพ็คเกจสำหรับการรวมเข้ากับ TypeORM ซึ่งให้บริการ TypeOrmCrudService พื้นฐานด้วยวิธีการ CRUD สำหรับการทำงานกับเอนทิตีในฐานข้อมูล

สำหรับคำแนะนำนี้ เราจำเป็นต้องมีแพ็คเกจ รังjsx/crud และ รังjsx/crud-typeform.jsx ก่อนอื่นมาใส่กันก่อน

yarn add @nestjsx/crud class-transformer class-validator

แพคเกจ คลาสหม้อแปลง и ตัวตรวจสอบคลาส ในแอปพลิเคชันนี้จำเป็นสำหรับคำอธิบายที่เปิดเผยของกฎสำหรับการแปลงโมเดลอินสแตนซ์และการตรวจสอบความถูกต้องของคำขอที่เข้ามาตามลำดับ แพ็คเกจเหล่านี้มาจากผู้เขียนคนเดียวกัน ดังนั้นอินเทอร์เฟซจึงคล้ายกัน

การนำ CRUD ไปใช้โดยตรง

เราจะนำรายชื่อผู้ใช้มาเป็นตัวอย่าง ผู้ใช้จะมีฟิลด์ต่อไปนี้: id, username, displayName, email. id - ฟิลด์เพิ่มอัตโนมัติ email и username - เขตข้อมูลที่ไม่ซ้ำกัน ทุกอย่างง่าย! ยังคงต้องตระหนักถึงแนวคิดของเราในรูปแบบของแอปพลิเคชัน Nest
ก่อนอื่นคุณต้องสร้างโมดูล usersซึ่งจะรับผิดชอบในการทำงานร่วมกับผู้ใช้ ลองใช้ cli จาก NestJS และในไดเร็กทอรีรูทของโครงการเราจะดำเนินการคำสั่ง nest g module users.

ผู้ใช้โมดูล Nest G

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects/nest-rest git:(master*)$ nest g module users
CREATE /src/users/users.module.ts (82 bytes)
UPDATE /src/app.module.ts (312 bytes)

ในโมดูลนี้ เราจะเพิ่มโฟลเดอร์เอนทิตี ซึ่งเราจะมีโมเดลของโมดูลนี้ โดยเฉพาะอย่างยิ่ง ลองเพิ่มไฟล์ user.entity.ts ที่นี่พร้อมคำอธิบายของรุ่นผู้ใช้:

user.entity.ts

import { Column, Entity, PrimaryGeneratedColumn } from 'typeorm';
@Entity()
export class User {
@PrimaryGeneratedColumn()
id: string;
@Column({unique: true})
email: string;
@Column({unique: true})
username: string;
@Column({nullable: true})
displayName: string;
}

เพื่อให้แอปพลิเคชันของเรา "เห็น" โมเดลนี้จำเป็นต้องมีในโมดูล UsersModule นำเข้า TypeOrmModule เนื้อหาต่อไปนี้:

users.module.ts

import { Module } from '@nestjs/common';
import { UsersController } from './controllers/users/users.controller';
import { UsersService } from './services/users/users.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import { User } from './entities/user.entity';
@Module({
controllers: [UsersController],
providers: [UsersService],
imports: [
TypeOrmModule.forFeature([User])
]
})
export class UsersModule {}

ดังนั้นที่นี่เรากำลังนำเข้า TypeOrmModuleโดยที่เป็นพารามิเตอร์เมธอด forFeature ระบุรายการรุ่นที่เกี่ยวข้องกับโมดูลนี้

มันยังคงสร้างเอนทิตีที่เกี่ยวข้องในฐานข้อมูล เพื่อจุดประสงค์เหล่านี้ จะใช้กลไกการย้ายข้อมูล หากต้องการสร้างการย้ายข้อมูลตามการเปลี่ยนแปลงของโมเดล ให้รันคำสั่ง npm run migration:generate -- CreateUserTable:

ชื่อสปอยล์

$ npm run migration:generate -- CreateUserTable
Migration /home/dmitrii/projects/nest-rest/migrations/1563346135367-CreateUserTable.ts has been generated successfully.
Done in 1.96s.

เราไม่ต้องเขียนการโยกย้ายด้วยมือ ทุกอย่างเกิดขึ้นอย่างน่าอัศจรรย์ นั่นมันปาฏิหาริย์ไม่ใช่เหรอ! อย่างไรก็ตาม นี่ไม่ใช่ทั้งหมด มาดูไฟล์การโยกย้ายที่สร้างขึ้น:

1563346135367-CreateUserTable.ts

import {MigrationInterface, QueryRunner} from "typeorm";
export class CreateUserTable1563346816726 implements MigrationInterface {
public async up(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`CREATE TABLE "user" ("id" SERIAL NOT NULL, "email" character varying NOT NULL, "username" character varying NOT NULL, "displayName" character varying, CONSTRAINT "UQ_e12875dfb3b1d92d7d7c5377e22" UNIQUE ("email"), CONSTRAINT "UQ_78a916df40e02a9deb1c4b75edb" UNIQUE ("username"), CONSTRAINT "PK_cace4a159ff9f2512dd42373760" PRIMARY KEY ("id"))`);
}
public async down(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`DROP TABLE "user"`);
}
}

อย่างที่คุณเห็น ไม่เพียงสร้างวิธีการเริ่มต้นการย้ายข้อมูลโดยอัตโนมัติ แต่ยังรวมถึงวิธีการย้อนกลับด้วย มหัศจรรย์!
ยังคงเป็นเพียงการเลื่อนการโยกย้ายนี้ สิ่งนี้ทำได้โดยคำสั่งต่อไปนี้:

npm run migration:run.

เท่านี้ก็ย้ายการเปลี่ยนแปลงสคีมาที่ฐานข้อมูลแล้ว
ต่อไปเราจะสร้างบริการที่จะรับผิดชอบในการทำงานร่วมกับผู้ใช้และสืบทอดจาก TypeOrmCrudService. ในกรณีของเราจำเป็นต้องส่งที่เก็บเอนทิตีที่น่าสนใจไปยังพารามิเตอร์ของตัวสร้างหลัก User ที่เก็บ

users.service.ts

import { Injectable } from '@nestjs/common';
import { TypeOrmCrudService } from '@nestjsx/crud-typeorm';
import { User } from '../../entities/user.entity';
import { InjectRepository } from '@nestjs/typeorm';
import { Repository } from 'typeorm';
@Injectable()
export class UsersService extends TypeOrmCrudService<User>{
constructor(@InjectRepository(User) usersRepository: Repository<User>){
super(usersRepository);
}
}

เราต้องการบริการนี้ในคอนโทรลเลอร์ users. หากต้องการสร้างคอนโทรลเลอร์ ให้พิมพ์คอนโซล nest g controller users/controllers/users

รัง g ผู้ใช้ตัวควบคุม/ตัวควบคุม/ผู้ใช้

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects/nest-rest git:(master*)$ nest g controller users/controllers/users
CREATE /src/users/controllers/users/users.controller.spec.ts (486 bytes)
CREATE /src/users/controllers/users/users.controller.ts (99 bytes)
UPDATE /src/users/users.module.ts (188 bytes)

เปิดคอนโทรลเลอร์นี้และแก้ไขเพื่อเพิ่มความมหัศจรรย์ รังjsx/crud.jsx ต่อชั้นเรียน UsersController มาเพิ่มมัณฑนากรดังนี้:

@Crud({
model: {
type: User
}
})

หยาบ เป็นมัณฑนากรที่เพิ่มวิธีการที่จำเป็นให้กับคอนโทรลเลอร์ในการทำงานกับโมเดล ประเภทรุ่นระบุไว้ในฟิลด์ model.type การกำหนดค่ามัณฑนากร
ขั้นตอนที่สองคือการใช้อินเทอร์เฟซ CrudController<User>. รหัสคอนโทรลเลอร์ "ประกอบ" มีลักษณะดังนี้:

import { Controller } from '@nestjs/common';
import { Crud, CrudController } from '@nestjsx/crud';
import { User } from '../../entities/user.entity';
import { UsersService } from '../../services/users/users.service';
@Crud({
model: {
type: User
}
})
@Controller('users')
export class UsersController implements CrudController<User>{
constructor(public service: UsersService){}
}

และมันคือทั้งหมด! ตอนนี้คอนโทรลเลอร์รองรับการทำงานทั้งชุดด้วยโมเดล! ไม่เชื่อ? มาลองใช้แอปพลิเคชันของเรากัน!

คำขอสคริปต์ใน TestMace

เพื่อทดสอบบริการของเรา เราจะใช้ IDE เพื่อทำงานร่วมกับ API ทดสอบ Mace. ทำไมต้องทดสอบ Mac? เมื่อเทียบกับผลิตภัณฑ์ที่คล้ายกัน มีข้อดีดังต่อไปนี้:

  • การทำงานที่มีประสิทธิภาพกับตัวแปร ในขณะนี้ มีตัวแปรหลายประเภท ซึ่งแต่ละประเภทมีบทบาทเฉพาะ: ตัวแปรในตัว ตัวแปรไดนามิก ตัวแปรสภาพแวดล้อม ตัวแปรแต่ละตัวเป็นของโหนดบางตัวที่รองรับกลไกการสืบทอด
  • เขียนสคริปต์ได้ง่ายโดยไม่ต้องเขียนโปรแกรม สิ่งนี้จะกล่าวถึงด้านล่าง
  • รูปแบบที่มนุษย์อ่านได้ซึ่งช่วยให้คุณบันทึกโครงการในระบบควบคุมเวอร์ชัน
  • การเติมข้อความอัตโนมัติ การเน้นไวยากรณ์ การเน้นค่าตัวแปร
  • รองรับคำอธิบาย API พร้อมความสามารถในการนำเข้าจาก Swagger

เรามาเริ่มเซิร์ฟเวอร์ของเราด้วยคำสั่ง npm start และพยายามเข้าถึงรายชื่อผู้ใช้ รายชื่อผู้ใช้ซึ่งพิจารณาจากการกำหนดค่าคอนโทรลเลอร์ของเรา สามารถรับได้จาก url localhost:3000/users มาขอ url นี้กัน
หลังจากเรียกใช้ TestMace คุณจะเห็นอินเทอร์เฟซนี้:

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

ที่ด้านบนซ้ายคือแผนผังโครงการที่มีโหนดรูท โครงการ. ลองสร้างคำขอแรกเพื่อรับรายชื่อผู้ใช้ สำหรับสิ่งนี้เราจะสร้าง ขั้นตอนคำขอ โหนด สิ่งนี้ทำในเมนูบริบทของโหนดโครงการ เพิ่มโหนด -> RequestStep.

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

วาง localhost:3000/users ลงในช่อง URL แล้วเรียกใช้คำขอ เราได้รับ 200 รหัสพร้อมอาร์เรย์ว่างในเนื้อหาการตอบสนอง เป็นที่เข้าใจ เรายังไม่ได้เพิ่มใครเลย
มาสร้างสคริปต์ที่จะรวมขั้นตอนต่อไปนี้:

  1. การสร้างผู้ใช้
  2. ค้นหาตาม id ของผู้ใช้ที่สร้างขึ้นใหม่
  3. ลบด้วยรหัสผู้ใช้ที่สร้างในขั้นตอนที่ 1

งั้นไปกัน. เพื่อความสะดวกเรามาสร้างโหนดเช่น โฟลเดอร์. ในความเป็นจริงนี่เป็นเพียงโฟลเดอร์ที่เราจะบันทึกสคริปต์ทั้งหมด หากต้องการสร้างโหนดโฟลเดอร์ ในเมนูบริบทของโหนดโครงการ เลือก เพิ่มโหนด -> โฟลเดอร์. ขอเรียกว่าโหนด ตรวจสอบสร้าง. ภายในโหนด ตรวจสอบสร้าง มาสร้างคำขอแรกของเราเพื่อสร้างผู้ใช้ ตั้งชื่อโหนดที่สร้างขึ้นใหม่กันเถอะ สร้างผู้ใช้. นั่นคือในขณะนี้ ลำดับชั้นของโหนดจะมีลักษณะดังนี้:

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

ไปที่แท็บที่เปิดอยู่ สร้างผู้ใช้ โหนด ป้อนพารามิเตอร์ต่อไปนี้สำหรับคำขอ:

  • ประเภทคำขอ - POST
  • URL - localhost:3000/ผู้ใช้
  • เนื้อความ - JSON พร้อมค่า {"email": "[email protected]", "displayName": "New user", "username": "user"}

มาดำเนินการตามคำขอนี้กันเถอะ แอปพลิเคชันของเราแจ้งว่าสร้างรายการแล้ว

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

ลองตรวจสอบข้อเท็จจริงนี้กัน เพื่อดำเนินการกับ id ของผู้ใช้ที่สร้างขึ้นในขั้นตอนต่อมา ต้องบันทึกพารามิเตอร์นี้ กลไกนี้เหมาะสำหรับสิ่งนี้ ตัวแปรไดนามิก. มาดูวิธีที่เราทำงานร่วมกับพวกเขาโดยใช้ตัวอย่างของเรา ในแท็บแยกวิเคราะห์ของการตอบกลับ ที่โหนด id ในเมนูบริบท ให้เลือกรายการ กำหนดให้กับตัวแปร. ต้องระบุพารามิเตอร์ต่อไปนี้ในกล่องโต้ตอบ:

  • โหนด - บรรพบุรุษใดในการสร้างตัวแปรไดนามิก มาเลือกกันเลย ตรวจสอบสร้าง
  • ชื่อตัวแปร คือชื่อของตัวแปรนี้ โทรเลย userId.

นี่คือลักษณะของกระบวนการสร้างตัวแปรไดนามิก:

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

ตอนนี้ ทุกครั้งที่ดำเนินการค้นหานี้ ค่าของตัวแปรไดนามิกจะได้รับการอัปเดต และตั้งแต่นั้นเป็นต้นมา ตัวแปรไดนามิกสนับสนุนกลไกของการสืบทอดลำดับชั้น ตัวแปร userId จะมีให้ในรุ่นลูกหลาน ตรวจสอบสร้าง โหนดของระดับการซ้อนใดๆ
ในคำขอถัดไป ตัวแปรนี้จะเป็นประโยชน์กับเรา กล่าวคือ เราจะขอผู้ใช้ที่สร้างขึ้นใหม่ ในฐานะลูกของโหนด ตรวจสอบสร้าง เราจะสร้างคำขอ ตรวจสอบว่ามีอยู่หรือไม่ ด้วยพารามิเตอร์ url เท่ากัน localhost:3000/users/${$dynamicVar.userId}. ดูแบบก่อสร้าง ${variable_name} กำลังรับค่าของตัวแปร เพราะ เรามีตัวแปรไดนามิก ดังนั้นเพื่อให้ได้มา คุณต้องอ้างอิงถึงอ็อบเจกต์ $dynamicVarนั่นคือการเข้าถึงตัวแปรไดนามิกโดยสมบูรณ์ userId จะมีลักษณะเช่นนี้ ${$dynamicVar.userId}. มาดำเนินการตามคำขอและตรวจสอบให้แน่ใจว่าข้อมูลได้รับการร้องขออย่างถูกต้อง
สัมผัสสุดท้ายยังคงอยู่ - เพื่อขอลบ เราต้องการมันไม่เพียง แต่ตรวจสอบการทำงานของการลบเท่านั้น แต่ยังต้องพูดเพื่อล้างข้อมูลในฐานข้อมูลด้วยเพราะ ฟิลด์อีเมลและชื่อผู้ใช้จะไม่ซ้ำกัน ดังนั้นในโหนดตรวจสอบการสร้าง เราจะสร้างคำขอลบผู้ใช้ด้วยพารามิเตอร์ต่อไปนี้

  • ประเภทคำขอ - ลบ
  • URL - localhost:3000/users/${$dynamicVar.userId}

เราเปิดตัว พวกเรารอ. สนุกกับผลลัพธ์)

ตอนนี้เราสามารถเรียกใช้สคริปต์นี้ได้ตลอดเวลา หากต้องการเรียกใช้สคริปต์ ให้เลือกจากเมนูบริบท ตรวจสอบสร้าง จุดปม วิ่ง.

สร้าง CRUD อย่างรวดเร็วด้วย Nest, @nestjsx/crud และ TestMace

โหนดในสคริปต์จะถูกดำเนินการทีละโหนด
คุณสามารถบันทึกสคริปต์นี้ในโครงการของคุณโดยเรียกใช้ ไฟล์ -> บันทึกโครงการ.

ข้อสรุป

ชิปทั้งหมดของเครื่องมือที่ใช้ไม่สามารถเข้ากับรูปแบบของบทความนี้ได้ สำหรับผู้ร้ายหลัก - แพ็คเกจ รังjsx/crud - หัวข้อต่อไปนี้ยังคงถูกเปิดเผย:

  • การตรวจสอบความถูกต้องแบบกำหนดเองและการเปลี่ยนแปลงแบบจำลอง
  • ภาษาสืบค้นที่ทรงพลังและการใช้งานที่สะดวกด้านหน้า
  • นิยามใหม่และเพิ่มวิธีการใหม่ให้กับผู้ควบคุม crud;
  • การสนับสนุนผยอง;
  • การจัดการแคช

อย่างไรก็ตาม แม้สิ่งที่อธิบายไว้ในบทความก็เพียงพอที่จะเข้าใจว่าแม้แต่เฟรมเวิร์กระดับองค์กรอย่าง NestJS ก็มีเครื่องมือสำหรับการสร้างต้นแบบแอปพลิเคชันอย่างรวดเร็ว และ IDE ที่ยอดเยี่ยมเช่น ทดสอบ Mace ช่วยให้คุณรักษาจังหวะที่ตั้งไว้

ซอร์สโค้ดสำหรับบทความนี้พร้อมกับโครงการ ทดสอบ Maceที่มีอยู่ในที่เก็บ https://github.com/TestMace/nest-rest. เพื่อเปิดโครงการ ทดสอบ Mace เพียงพอที่จะดำเนินการในแอปพลิเคชัน ไฟล์ -> เปิดโครงการ.

ที่มา: will.com

เพิ่มความคิดเห็น