Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Actuellement, l'API REST est devenue un standard pour le développement d'applications Web, permettant de diviser le développement en parties indépendantes. Divers frameworks populaires tels que Angular, React, Vue et autres sont actuellement utilisés pour l'interface utilisateur. Les développeurs backend peuvent choisir parmi une grande variété de langages et de frameworks. Aujourd'hui, je voudrais parler d'un cadre tel que NestJS. Nous sommes dans Masse d'essai Nous l'utilisons activement pour des projets internes. Utilisation du nid et du package @nestjsx/crud, nous allons créer une application CRUD simple.

Pourquoi NestJS

Récemment, de nombreux frameworks backend sont apparus dans la communauté JavaScript. Et si, en termes de fonctionnalités, ils offrent des opportunités similaires à celles de Nest, alors sur un point, il gagne définitivement : c'est l'architecture. Les fonctionnalités NestJS suivantes vous permettent de créer des applications industrielles et d'adapter le développement à de grandes équipes :

  • en utilisant TypeScript comme langage de développement principal. Bien que NestJS prenne en charge JavaScript, certaines fonctionnalités peuvent ne pas fonctionner, surtout s'il s'agit de packages tiers ;
  • la présence d'un conteneur DI, qui permet de créer des composants faiblement couplés ;
  • La fonctionnalité du framework lui-même est divisée en composants indépendants interchangeables. Par exemple, sous le capot, comme cadre, il peut être utilisé comme expressEt fastifier, pour travailler avec la base de données, l'imbrication prête à l'emploi fournit des liaisons vers dactylographie, mangouste, séquelle;
  • NestJS est indépendant de la plate-forme et prend en charge REST, GraphQL, Websockets, gRPC, etc.

Le framework lui-même est inspiré du framework frontend Angular et a conceptuellement beaucoup en commun avec lui.

Installation de NestJS et déploiement du projet

Nest contient un package nid/cli, qui vous permet de déployer rapidement un framework d'application de base. Installons ce package globalement :

npm install --global @nest/cli

Après l'installation, nous générerons le framework de base de notre application avec le nom nid-rest. Cela se fait à l'aide de la commande nest new nest-rest.

nid nouveau nid-repos

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects $ nest new nest-rest
  We will scaffold your app in a few seconds..

CREATE /nest-rest/.prettierrc (51 bytes)
CREATE /nest-rest/README.md (3370 bytes)
CREATE /nest-rest/nest-cli.json (84 bytes)
CREATE /nest-rest/nodemon-debug.json (163 bytes)
CREATE /nest-rest/nodemon.json (67 bytes)
CREATE /nest-rest/package.json (1805 bytes)
CREATE /nest-rest/tsconfig.build.json (97 bytes)
CREATE /nest-rest/tsconfig.json (325 bytes)
CREATE /nest-rest/tslint.json (426 bytes)
CREATE /nest-rest/src/app.controller.spec.ts (617 bytes)
CREATE /nest-rest/src/app.controller.ts (274 bytes)
CREATE /nest-rest/src/app.module.ts (249 bytes)
CREATE /nest-rest/src/app.service.ts (142 bytes)
CREATE /nest-rest/src/main.ts (208 bytes)
CREATE /nest-rest/test/app.e2e-spec.ts (561 bytes)
CREATE /nest-rest/test/jest-e2e.json (183 bytes)

? Which package manager would you ️ to use? yarn
 Installation in progress... 

  Successfully created project nest-rest
  Get started with the following commands:

$ cd nest-rest
$ yarn run start

                          Thanks for installing Nest 
                 Please consider donating to our open collective
                        to help us maintain this package.

                 Donate: https://opencollective.com/nest

Nous choisirons le fil comme gestionnaire de paquets.
À ce stade, vous pouvez démarrer le serveur avec la commande npm start et je vais à l'adresse http://localhost:3000 vous pouvez voir la page principale. Cependant, ce n’est pas pour cela que nous sommes réunis ici et que nous allons de l’avant.

Mise en place du travail avec la base de données

J'ai choisi PostrgreSQL comme SGBD pour cet article. Il n'y a pas de contestation sur les goûts, à mon avis, c'est le SGBD le plus mature, possédant toutes les capacités nécessaires. Comme déjà mentionné, Nest propose une intégration avec divers packages pour travailler avec des bases de données. Parce que Puisque mon choix s'est porté sur PostgreSQL, il serait logique de choisir TypeORM comme ORM. Installons les packages nécessaires à l'intégration avec la base de données :

yarn add typeorm @nestjs/typeorm pg

Dans l’ordre, à quoi sert chaque paquet :

  1. typeorm - un package directement depuis l'ORM lui-même ;
  2. @nestjs/typeorm - Package TypeORM pour NestJS. Ajoute des modules à importer dans les modules du projet, ainsi qu'un ensemble de décorateurs auxiliaires ;
  3. pg - pilote pour travailler avec PostgreSQL.

C'est bon, les packages sont installés, vous devez maintenant lancer la base de données elle-même. Pour déployer la base de données, j'utiliserai docker-compose.yml avec le contenu suivant :

docker-compose.yml

version: '3.1'

services:
  db:
    image: postgres:11.2
    restart: always
    environment:
      POSTGRES_PASSWORD: example
    volumes:
      - ../db:/var/lib/postgresql/data
      - ./postgresql.conf:/etc/postgresql/postgresql.conf
    ports:
      - 5432:5432
  adminer:
    image: adminer
    restart: always
    ports:
      - 8080:8080

Comme vous pouvez le constater, ce fichier configure le lancement de 2 conteneurs :

  1. db est un conteneur contenant directement la base de données. Dans notre cas, postgresql version 11.2 est utilisé ;
  2. administrateur : gestionnaire de base de données. Fournit une interface Web pour afficher et gérer la base de données.

Pour travailler avec les connexions TCP, j'ai ajouté la configuration suivante.

postgresql.conf

# -----------------------------
# PostgreSQL configuration file
# -----------------------------
#
# This file consists of lines of the form:
#
#   name = value
#
# (The "=" is optional.)  Whitespace may be used.  Comments are introduced with
# "#" anywhere on a line.  The complete list of parameter names and allowed
# values can be found in the PostgreSQL documentation.
#
# The commented-out settings shown in this file represent the default values.
# Re-commenting a setting is NOT sufficient to revert it to the default value;
# you need to reload the server.
#
# This file is read on server startup and when the server receives a SIGHUP
# signal.  If you edit the file on a running system, you have to SIGHUP the
# server for the changes to take effect, run "pg_ctl reload", or execute
# "SELECT pg_reload_conf()".  Some parameters, which are marked below,
# require a server shutdown and restart to take effect.
#
# Any parameter can also be given as a command-line option to the server, e.g.,
# "postgres -c log_connections=on".  Some parameters can be changed at run time
# with the "SET" SQL command.
#
# Memory units:  kB = kilobytes        Time units:  ms  = milliseconds
#                MB = megabytes                     s   = seconds
#                GB = gigabytes                     min = minutes
#                TB = terabytes                     h   = hours
#                                                   d   = days
#------------------------------------------------------------------------------
# FILE LOCATIONS
#------------------------------------------------------------------------------
# The default values of these variables are driven from the -D command-line
# option or PGDATA environment variable, represented here as ConfigDir.
#data_directory = 'ConfigDir'       # use data in another directory
# (change requires restart)
#hba_file = 'ConfigDir/pg_hba.conf' # host-based authentication file
# (change requires restart)
#ident_file = 'ConfigDir/pg_ident.conf' # ident configuration file
# (change requires restart)
# If external_pid_file is not explicitly set, no extra PID file is written.
#external_pid_file = ''         # write an extra PID file
# (change requires restart)
#------------------------------------------------------------------------------
# CONNECTIONS AND AUTHENTICATION
#------------------------------------------------------------------------------
# - Connection Settings -
listen_addresses = '*'
#listen_addresses = 'localhost'     # what IP address(es) to listen on;
# comma-separated list of addresses;
# defaults to 'localhost'; use '*' for all
# (change requires restart)
#port = 5432                # (change requires restart)
#max_connections = 100          # (change requires restart)
#superuser_reserved_connections = 3 # (change requires restart)
#unix_socket_directories = '/tmp'   # comma-separated list of directories
# (change requires restart)
#unix_socket_group = ''         # (change requires restart)
#unix_socket_permissions = 0777     # begin with 0 to use octal notation
# (change requires restart)
#bonjour = off              # advertise server via Bonjour
# (change requires restart)
#bonjour_name = ''          # defaults to the computer name
# (change requires restart)
# - TCP Keepalives -
# see "man 7 tcp" for details
#tcp_keepalives_idle = 0        # TCP_KEEPIDLE, in seconds;
# 0 selects the system default
#tcp_keepalives_interval = 0        # TCP_KEEPINTVL, in seconds;
# 0 selects the system default
#tcp_keepalives_count = 0       # TCP_KEEPCNT;
# 0 selects the system default
# - Authentication -
#authentication_timeout = 1min      # 1s-600s
#password_encryption = md5      # md5 or scram-sha-256
#db_user_namespace = off
# GSSAPI using Kerberos
#krb_server_keyfile = ''
#krb_caseins_users = off
# - SSL -
#ssl = off
#ssl_ca_file = ''
#ssl_cert_file = 'server.crt'
#ssl_crl_file = ''
#ssl_key_file = 'server.key'
#ssl_ciphers = 'HIGH:MEDIUM:+3DES:!aNULL' # allowed SSL ciphers
#ssl_prefer_server_ciphers = on
#ssl_ecdh_curve = 'prime256v1'
#ssl_min_protocol_version = 'TLSv1'
#ssl_max_protocol_version = ''
#ssl_dh_params_file = ''
#ssl_passphrase_command = ''
#ssl_passphrase_command_supports_reload = off
#------------------------------------------------------------------------------
# RESOURCE USAGE (except WAL)
#------------------------------------------------------------------------------
# - Memory -
#shared_buffers = 32MB          # min 128kB
# (change requires restart)
#huge_pages = try           # on, off, or try
# (change requires restart)
#temp_buffers = 8MB         # min 800kB
#max_prepared_transactions = 0      # zero disables the feature
# (change requires restart)
# Caution: it is not advisable to set max_prepared_transactions nonzero unless
# you actively intend to use prepared transactions.
#work_mem = 4MB             # min 64kB
#maintenance_work_mem = 64MB        # min 1MB
#autovacuum_work_mem = -1       # min 1MB, or -1 to use maintenance_work_mem
#max_stack_depth = 2MB          # min 100kB
#shared_memory_type = mmap      # the default is the first option
# supported by the operating system:
#   mmap
#   sysv
#   windows
# (change requires restart)
#dynamic_shared_memory_type = posix # the default is the first option
# supported by the operating system:
#   posix
#   sysv
#   windows
#   mmap
# (change requires restart)
# - Disk -
#temp_file_limit = -1           # limits per-process temp file space
# in kB, or -1 for no limit
# - Kernel Resources -
#max_files_per_process = 1000       # min 25
# (change requires restart)
# - Cost-Based Vacuum Delay -
#vacuum_cost_delay = 0          # 0-100 milliseconds (0 disables)
#vacuum_cost_page_hit = 1       # 0-10000 credits
#vacuum_cost_page_miss = 10     # 0-10000 credits
#vacuum_cost_page_dirty = 20        # 0-10000 credits
#vacuum_cost_limit = 200        # 1-10000 credits
# - Background Writer -
#bgwriter_delay = 200ms         # 10-10000ms between rounds
#bgwriter_lru_maxpages = 100        # max buffers written/round, 0 disables
#bgwriter_lru_multiplier = 2.0      # 0-10.0 multiplier on buffers scanned/round
#bgwriter_flush_after = 0       # measured in pages, 0 disables
# - Asynchronous Behavior -
#effective_io_concurrency = 1       # 1-1000; 0 disables prefetching
#max_worker_processes = 8       # (change requires restart)
#max_parallel_maintenance_workers = 2   # taken from max_parallel_workers
#max_parallel_workers_per_gather = 2    # taken from max_parallel_workers
#parallel_leader_participation = on
#max_parallel_workers = 8       # maximum number of max_worker_processes that
# can be used in parallel operations
#old_snapshot_threshold = -1        # 1min-60d; -1 disables; 0 is immediate
# (change requires restart)
#backend_flush_after = 0        # measured in pages, 0 disables
#------------------------------------------------------------------------------
# WRITE-AHEAD LOG
#------------------------------------------------------------------------------
# - Settings -
#wal_level = replica            # minimal, replica, or logical
# (change requires restart)
#fsync = on             # flush data to disk for crash safety
# (turning this off can cause
# unrecoverable data corruption)
#synchronous_commit = on        # synchronization level;
# off, local, remote_write, remote_apply, or on
#wal_sync_method = fsync        # the default is the first option
# supported by the operating system:
#   open_datasync
#   fdatasync (default on Linux)
#   fsync
#   fsync_writethrough
#   open_sync
#full_page_writes = on          # recover from partial page writes
#wal_compression = off          # enable compression of full-page writes
#wal_log_hints = off            # also do full page writes of non-critical updates
# (change requires restart)
#wal_buffers = -1           # min 32kB, -1 sets based on shared_buffers
# (change requires restart)
#wal_writer_delay = 200ms       # 1-10000 milliseconds
#wal_writer_flush_after = 1MB       # measured in pages, 0 disables
#commit_delay = 0           # range 0-100000, in microseconds
#commit_siblings = 5            # range 1-1000
# - Checkpoints -
#checkpoint_timeout = 5min      # range 30s-1d
#max_wal_size = 1GB
#min_wal_size = 80MB
#checkpoint_completion_target = 0.5 # checkpoint target duration, 0.0 - 1.0
#checkpoint_flush_after = 0     # measured in pages, 0 disables
#checkpoint_warning = 30s       # 0 disables
# - Archiving -
#archive_mode = off     # enables archiving; off, on, or always
# (change requires restart)
#archive_command = ''       # command to use to archive a logfile segment
# placeholders: %p = path of file to archive
#               %f = file name only
# e.g. 'test ! -f /mnt/server/archivedir/%f && cp %p /mnt/server/archivedir/%f'
#archive_timeout = 0        # force a logfile segment switch after this
# number of seconds; 0 disables
# - Archive Recovery -
# These are only used in recovery mode.
#restore_command = ''       # command to use to restore an archived logfile segment
# placeholders: %p = path of file to restore
#               %f = file name only
# e.g. 'cp /mnt/server/archivedir/%f %p'
# (change requires restart)
#archive_cleanup_command = ''   # command to execute at every restartpoint
#recovery_end_command = ''  # command to execute at completion of recovery
# - Recovery Target -
# Set these only when performing a targeted recovery.
#recovery_target = ''       # 'immediate' to end recovery as soon as a
# consistent state is reached
# (change requires restart)
#recovery_target_name = ''  # the named restore point to which recovery will proceed
# (change requires restart)
#recovery_target_time = ''  # the time stamp up to which recovery will proceed
# (change requires restart)
#recovery_target_xid = ''   # the transaction ID up to which recovery will proceed
# (change requires restart)
#recovery_target_lsn = ''   # the WAL LSN up to which recovery will proceed
# (change requires restart)
#recovery_target_inclusive = on # Specifies whether to stop:
# just after the specified recovery target (on)
# just before the recovery target (off)
# (change requires restart)
#recovery_target_timeline = 'latest'    # 'current', 'latest', or timeline ID
# (change requires restart)
#recovery_target_action = 'pause'   # 'pause', 'promote', 'shutdown'
# (change requires restart)
#------------------------------------------------------------------------------
# REPLICATION
#------------------------------------------------------------------------------
# - Sending Servers -
# Set these on the master and on any standby that will send replication data.
#max_wal_senders = 10       # max number of walsender processes
# (change requires restart)
#wal_keep_segments = 0      # in logfile segments; 0 disables
#wal_sender_timeout = 60s   # in milliseconds; 0 disables
#max_replication_slots = 10 # max number of replication slots
# (change requires restart)
#track_commit_timestamp = off   # collect timestamp of transaction commit
# (change requires restart)
# - Master Server -
# These settings are ignored on a standby server.
#synchronous_standby_names = '' # standby servers that provide sync rep
# method to choose sync standbys, number of sync standbys,
# and comma-separated list of application_name
# from standby(s); '*' = all
#vacuum_defer_cleanup_age = 0   # number of xacts by which cleanup is delayed
# - Standby Servers -
# These settings are ignored on a master server.
#primary_conninfo = ''          # connection string to sending server
# (change requires restart)
#primary_slot_name = ''         # replication slot on sending server
# (change requires restart)
#promote_trigger_file = ''      # file name whose presence ends recovery
#hot_standby = on           # "off" disallows queries during recovery
# (change requires restart)
#max_standby_archive_delay = 30s    # max delay before canceling queries
# when reading WAL from archive;
# -1 allows indefinite delay
#max_standby_streaming_delay = 30s  # max delay before canceling queries
# when reading streaming WAL;
# -1 allows indefinite delay
#wal_receiver_status_interval = 10s # send replies at least this often
# 0 disables
#hot_standby_feedback = off     # send info from standby to prevent
# query conflicts
#wal_receiver_timeout = 60s     # time that receiver waits for
# communication from master
# in milliseconds; 0 disables
#wal_retrieve_retry_interval = 5s   # time to wait before retrying to
# retrieve WAL after a failed attempt
#recovery_min_apply_delay = 0       # minimum delay for applying changes during recovery
# - Subscribers -
# These settings are ignored on a publisher.
#max_logical_replication_workers = 4    # taken from max_worker_processes
# (change requires restart)
#max_sync_workers_per_subscription = 2  # taken from max_logical_replication_workers
#------------------------------------------------------------------------------
# QUERY TUNING
#------------------------------------------------------------------------------
# - Planner Method Configuration -
#enable_bitmapscan = on
#enable_hashagg = on
#enable_hashjoin = on
#enable_indexscan = on
#enable_indexonlyscan = on
#enable_material = on
#enable_mergejoin = on
#enable_nestloop = on
#enable_parallel_append = on
#enable_seqscan = on
#enable_sort = on
#enable_tidscan = on
#enable_partitionwise_join = off
#enable_partitionwise_aggregate = off
#enable_parallel_hash = on
#enable_partition_pruning = on
# - Planner Cost Constants -
#seq_page_cost = 1.0            # measured on an arbitrary scale
#random_page_cost = 4.0         # same scale as above
#cpu_tuple_cost = 0.01          # same scale as above
#cpu_index_tuple_cost = 0.005       # same scale as above
#cpu_operator_cost = 0.0025     # same scale as above
#parallel_tuple_cost = 0.1      # same scale as above
#parallel_setup_cost = 1000.0   # same scale as above
#jit_above_cost = 100000        # perform JIT compilation if available
# and query more expensive than this;
# -1 disables
#jit_inline_above_cost = 500000     # inline small functions if query is
# more expensive than this; -1 disables
#jit_optimize_above_cost = 500000   # use expensive JIT optimizations if
# query is more expensive than this;
# -1 disables
#min_parallel_table_scan_size = 8MB
#min_parallel_index_scan_size = 512kB
#effective_cache_size = 4GB
# - Genetic Query Optimizer -
#geqo = on
#geqo_threshold = 12
#geqo_effort = 5            # range 1-10
#geqo_pool_size = 0         # selects default based on effort
#geqo_generations = 0           # selects default based on effort
#geqo_selection_bias = 2.0      # range 1.5-2.0
#geqo_seed = 0.0            # range 0.0-1.0
# - Other Planner Options -
#default_statistics_target = 100    # range 1-10000
#constraint_exclusion = partition   # on, off, or partition
#cursor_tuple_fraction = 0.1        # range 0.0-1.0
#from_collapse_limit = 8
#join_collapse_limit = 8        # 1 disables collapsing of explicit
# JOIN clauses
#force_parallel_mode = off
#jit = on               # allow JIT compilation
#plan_cache_mode = auto         # auto, force_generic_plan or
# force_custom_plan
#------------------------------------------------------------------------------
# REPORTING AND LOGGING
#------------------------------------------------------------------------------
# - Where to Log -
#log_destination = 'stderr'     # Valid values are combinations of
# stderr, csvlog, syslog, and eventlog,
# depending on platform.  csvlog
# requires logging_collector to be on.
# This is used when logging to stderr:
#logging_collector = off        # Enable capturing of stderr and csvlog
# into log files. Required to be on for
# csvlogs.
# (change requires restart)
# These are only used if logging_collector is on:
#log_directory = 'log'          # directory where log files are written,
# can be absolute or relative to PGDATA
#log_filename = 'postgresql-%Y-%m-%d_%H%M%S.log'    # log file name pattern,
# can include strftime() escapes
#log_file_mode = 0600           # creation mode for log files,
# begin with 0 to use octal notation
#log_truncate_on_rotation = off     # If on, an existing log file with the
# same name as the new log file will be
# truncated rather than appended to.
# But such truncation only occurs on
# time-driven rotation, not on restarts
# or size-driven rotation.  Default is
# off, meaning append to existing files
# in all cases.
#log_rotation_age = 1d          # Automatic rotation of logfiles will
# happen after that time.  0 disables.
#log_rotation_size = 10MB       # Automatic rotation of logfiles will
# happen after that much log output.
# 0 disables.
# These are relevant when logging to syslog:
#syslog_facility = 'LOCAL0'
#syslog_ident = 'postgres'
#syslog_sequence_numbers = on
#syslog_split_messages = on
# This is only relevant when logging to eventlog (win32):
# (change requires restart)
#event_source = 'PostgreSQL'
# - When to Log -
#log_min_messages = warning     # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   info
#   notice
#   warning
#   error
#   log
#   fatal
#   panic
#log_min_error_statement = error    # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   info
#   notice
#   warning
#   error
#   log
#   fatal
#   panic (effectively off)
#log_min_duration_statement = -1    # logs statements and their durations
# according to log_statement_sample_rate. -1 is disabled,
# 0 logs all statement, > 0 logs only statements running at
# least this number of milliseconds.
#log_statement_sample_rate = 1  # Fraction of logged statements over
# log_min_duration_statement. 1.0 logs all statements,
# 0 never logs.
# - What to Log -
#debug_print_parse = off
#debug_print_rewritten = off
#debug_print_plan = off
#debug_pretty_print = on
#log_checkpoints = off
#log_connections = off
#log_disconnections = off
#log_duration = off
#log_error_verbosity = default      # terse, default, or verbose messages
#log_hostname = off
#log_line_prefix = '%m [%p] '       # special values:
#   %a = application name
#   %u = user name
#   %d = database name
#   %r = remote host and port
#   %h = remote host
#   %p = process ID
#   %t = timestamp without milliseconds
#   %m = timestamp with milliseconds
#   %n = timestamp with milliseconds (as a Unix epoch)
#   %i = command tag
#   %e = SQL state
#   %c = session ID
#   %l = session line number
#   %s = session start timestamp
#   %v = virtual transaction ID
#   %x = transaction ID (0 if none)
#   %q = stop here in non-session
#        processes
#   %% = '%'
# e.g. '<%u%%%d> '
#log_lock_waits = off           # log lock waits >= deadlock_timeout
#log_statement = 'none'         # none, ddl, mod, all
#log_replication_commands = off
#log_temp_files = -1            # log temporary files equal or larger
# than the specified size in kilobytes;
# -1 disables, 0 logs all temp files
#log_timezone = 'GMT'
#------------------------------------------------------------------------------
# PROCESS TITLE
#------------------------------------------------------------------------------
#cluster_name = ''          # added to process titles if nonempty
# (change requires restart)
#update_process_title = on
#------------------------------------------------------------------------------
# STATISTICS
#------------------------------------------------------------------------------
# - Query and Index Statistics Collector -
#track_activities = on
#track_counts = on
#track_io_timing = off
#track_functions = none         # none, pl, all
#track_activity_query_size = 1024   # (change requires restart)
#stats_temp_directory = 'pg_stat_tmp'
# - Monitoring -
#log_parser_stats = off
#log_planner_stats = off
#log_executor_stats = off
#log_statement_stats = off
#------------------------------------------------------------------------------
# AUTOVACUUM
#------------------------------------------------------------------------------
#autovacuum = on            # Enable autovacuum subprocess?  'on'
# requires track_counts to also be on.
#log_autovacuum_min_duration = -1   # -1 disables, 0 logs all actions and
# their durations, > 0 logs only
# actions running at least this number
# of milliseconds.
#autovacuum_max_workers = 3     # max number of autovacuum subprocesses
# (change requires restart)
#autovacuum_naptime = 1min      # time between autovacuum runs
#autovacuum_vacuum_threshold = 50   # min number of row updates before
# vacuum
#autovacuum_analyze_threshold = 50  # min number of row updates before
# analyze
#autovacuum_vacuum_scale_factor = 0.2   # fraction of table size before vacuum
#autovacuum_analyze_scale_factor = 0.1  # fraction of table size before analyze
#autovacuum_freeze_max_age = 200000000  # maximum XID age before forced vacuum
# (change requires restart)
#autovacuum_multixact_freeze_max_age = 400000000    # maximum multixact age
# before forced vacuum
# (change requires restart)
#autovacuum_vacuum_cost_delay = 2ms # default vacuum cost delay for
# autovacuum, in milliseconds;
# -1 means use vacuum_cost_delay
#autovacuum_vacuum_cost_limit = -1  # default vacuum cost limit for
# autovacuum, -1 means use
# vacuum_cost_limit
#------------------------------------------------------------------------------
# CLIENT CONNECTION DEFAULTS
#------------------------------------------------------------------------------
# - Statement Behavior -
#client_min_messages = notice       # values in order of decreasing detail:
#   debug5
#   debug4
#   debug3
#   debug2
#   debug1
#   log
#   notice
#   warning
#   error
#search_path = '"$user", public'    # schema names
#row_security = on
#default_tablespace = ''        # a tablespace name, '' uses the default
#temp_tablespaces = ''          # a list of tablespace names, '' uses
# only default tablespace
#check_function_bodies = on
#default_transaction_isolation = 'read committed'
#default_transaction_read_only = off
#default_transaction_deferrable = off
#session_replication_role = 'origin'
#statement_timeout = 0          # in milliseconds, 0 is disabled
#lock_timeout = 0           # in milliseconds, 0 is disabled
#idle_in_transaction_session_timeout = 0    # in milliseconds, 0 is disabled
#vacuum_freeze_min_age = 50000000
#vacuum_freeze_table_age = 150000000
#vacuum_multixact_freeze_min_age = 5000000
#vacuum_multixact_freeze_table_age = 150000000
#vacuum_cleanup_index_scale_factor = 0.1    # fraction of total number of tuples
# before index cleanup, 0 always performs
# index cleanup
#bytea_output = 'hex'           # hex, escape
#xmlbinary = 'base64'
#xmloption = 'content'
#gin_fuzzy_search_limit = 0
#gin_pending_list_limit = 4MB
# - Locale and Formatting -
#datestyle = 'iso, mdy'
#intervalstyle = 'postgres'
#timezone = 'GMT'
#timezone_abbreviations = 'Default'     # Select the set of available time zone
# abbreviations.  Currently, there are
#   Default
#   Australia (historical usage)
#   India
# You can create your own file in
# share/timezonesets/.
#extra_float_digits = 1         # min -15, max 3; any value >0 actually
# selects precise output mode
#client_encoding = sql_ascii        # actually, defaults to database
# encoding
# These settings are initialized by initdb, but they can be changed.
#lc_messages = 'C'          # locale for system error message
# strings
#lc_monetary = 'C'          # locale for monetary formatting
#lc_numeric = 'C'           # locale for number formatting
#lc_time = 'C'              # locale for time formatting
# default configuration for text search
#default_text_search_config = 'pg_catalog.simple'
# - Shared Library Preloading -
#shared_preload_libraries = ''  # (change requires restart)
#local_preload_libraries = ''
#session_preload_libraries = ''
#jit_provider = 'llvmjit'       # JIT library to use
# - Other Defaults -
#dynamic_library_path = '$libdir'
#------------------------------------------------------------------------------
# LOCK MANAGEMENT
#------------------------------------------------------------------------------
#deadlock_timeout = 1s
#max_locks_per_transaction = 64     # min 10
# (change requires restart)
#max_pred_locks_per_transaction = 64    # min 10
# (change requires restart)
#max_pred_locks_per_relation = -2   # negative values mean
# (max_pred_locks_per_transaction
#  / -max_pred_locks_per_relation) - 1
#max_pred_locks_per_page = 2            # min 0
#------------------------------------------------------------------------------
# VERSION AND PLATFORM COMPATIBILITY
#------------------------------------------------------------------------------
# - Previous PostgreSQL Versions -
#array_nulls = on
#backslash_quote = safe_encoding    # on, off, or safe_encoding
#escape_string_warning = on
#lo_compat_privileges = off
#operator_precedence_warning = off
#quote_all_identifiers = off
#standard_conforming_strings = on
#synchronize_seqscans = on
# - Other Platforms and Clients -
#transform_null_equals = off
#------------------------------------------------------------------------------
# ERROR HANDLING
#------------------------------------------------------------------------------
#exit_on_error = off            # terminate session on any error?
#restart_after_crash = on       # reinitialize after backend crash?
#data_sync_retry = off          # retry or panic on failure to fsync
# data?
# (change requires restart)
#------------------------------------------------------------------------------
# CONFIG FILE INCLUDES
#------------------------------------------------------------------------------
# These options allow settings to be loaded from files other than the
# default postgresql.conf.
#include_dir = 'conf.d'         # include files ending in '.conf' from
# directory 'conf.d'
#include_if_exists = 'exists.conf'  # include file only if it exists
#include = 'special.conf'       # include file
#------------------------------------------------------------------------------
# CUSTOMIZED OPTIONS
#------------------------------------------------------------------------------
# Add settings for extensions here

C'est tout, vous pouvez démarrer des conteneurs avec la commande docker-compose up -d. Ou dans une console séparée avec la commande docker-compose up.

Ainsi, les packages ont été installés, la base de données a été lancée, il ne reste plus qu'à les lier d'amitié. Pour ce faire, vous devez ajouter le fichier suivant à la racine du projet : ormconfig.js :

ormconfig.js

const process = require('process');
const username = process.env.POSTGRES_USER || "postgres";
const password = process.env.POSTGRES_PASSWORD || "example";
module.exports = {
"type": "postgres",
"host": "localhost",
"port": 5432,
username,
password,
"database": "postgres",
"synchronize": true,
"dropSchema": false,
"logging": true,
"entities": [__dirname + "/src/**/*.entity.ts", __dirname + "/dist/**/*.entity.js"],
"migrations": ["migrations/**/*.ts"],
"subscribers": ["subscriber/**/*.ts", "dist/subscriber/**/.js"],
"cli": {
"entitiesDir": "src",
"migrationsDir": "migrations",
"subscribersDir": "subscriber"
}
}

Cette configuration sera utilisée pour le typeorm cli.

Regardons cette configuration plus en détail. Aux lignes 3 et 4, nous obtenons le nom d'utilisateur et le mot de passe des variables d'environnement. C'est pratique lorsque vous disposez de plusieurs environnements (dev, stage, prod, etc). Par défaut, le nom d'utilisateur est postgres et le mot de passe est exemple. Le reste de la config est trivial, nous nous concentrerons donc uniquement sur les paramètres les plus intéressants :

  • synchroniser - Indique si le schéma de base de données doit être automatiquement créé au démarrage de l'application. Soyez prudent avec cette option et ne l'utilisez pas en production, sinon vous perdrez des données. Cette option est pratique lors du développement et du débogage d’une application. Comme alternative à cette option, vous pouvez utiliser la commande schema:sync à partir de CLI TypeORM.
  • dropSchema - réinitialise le schéma à chaque fois qu'une connexion est établie. Tout comme la précédente, cette option ne doit être utilisée que lors du développement et du débogage de l’application.
  • entités - quels chemins rechercher pour les descriptions de modèles. Veuillez noter que la recherche par masque est prise en charge.
  • cli.entitiesDir est le répertoire dans lequel les modèles créés à partir de la CLI TypeORM doivent être stockés par défaut.

Afin que nous puissions utiliser toutes les fonctionnalités de TypeORM dans notre application Nest, nous devons importer le module TypeOrmModule в AppModule. Ceux. ton AppModule ressemblera à ceci:

app.module.ts

import { Module } from '@nestjs/common';
import { AppController } from './app.controller';
import { AppService } from './app.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import * as process from "process";
const username = process.env.POSTGRES_USER || 'postgres';
const password = process.env.POSTGRES_PASSWORD || 'example';
@Module({
imports: [
TypeOrmModule.forRoot({
type: 'postgres',
host: 'localhost',
port: 5432,
username,
password,
database: 'postgres',
entities: [__dirname + '/**/*.entity{.ts,.js}'],
synchronize: true,
}),
],
controllers: [AppController],
providers: [AppService],
})
export class AppModule {}

Comme vous l'avez peut-être remarqué, la méthode forRoot la même configuration pour travailler avec la base de données est transférée comme dans le fichier ormconfig.ts

La touche finale reste : ajoutez plusieurs tâches pour travailler avec TypeORM dans package.json. Le fait est que la CLI est écrite en javascript et s'exécute dans l'environnement nodejs. Cependant, tous nos modèles et migrations seront rédigés en dactylographie. Il est donc nécessaire de transpiler nos migrations et nos modèles avant d'utiliser la CLI. Pour cela, nous avons besoin du package ts-node :

yarn add -D ts-node

Après cela, ajoutez les commandes nécessaires à package.json :

"typeorm": "ts-node -r tsconfig-paths/register ./node_modules/typeorm/cli.js",
"migration:generate": "yarn run typeorm migration:generate -n",
"migration:create": "yarn run typeorm migration:create -n",
"migration:run": "yarn run typeorm migration:run"

La première commande, typeorm, ajoute un wrapper ts-node pour exécuter le cli TypeORM. Les commandes restantes sont des raccourcis pratiques que vous, en tant que développeur, utiliserez presque tous les jours :
migration:generate — créer des migrations basées sur les modifications de vos modèles.
migration:create - créer une migration vide.
migration:run — lancer des migrations.
Eh bien, c'est tout maintenant, nous avons ajouté les packages nécessaires, configuré l'application pour qu'elle fonctionne avec la base de données à la fois depuis le cli et depuis l'application elle-même, et avons également lancé le SGBD. Il est temps d'ajouter de la logique à notre application.

Installation de packages pour créer CRUD

En utilisant uniquement Nest, vous pouvez créer une API qui vous permet de créer, lire, mettre à jour et supprimer une entité. Cette solution sera la plus flexible possible, mais dans certains cas elle sera redondante. Par exemple, si vous devez créer rapidement un prototype, vous pouvez souvent sacrifier la flexibilité au profit de la rapidité de développement. De nombreux frameworks fournissent des fonctionnalités permettant de générer du CRUD en décrivant le modèle de données d'une certaine entité. Et Nest ne fait pas exception ! Cette fonctionnalité est fournie par le package @nestjsx/crud. Ses capacités sont très intéressantes :

  • installation et configuration faciles ;
  • Indépendance du SGBD ;
  • langage de requête puissant avec la possibilité de filtrer, paginer, trier, charger des relations et des entités imbriquées, mettre en cache, etc. ;
  • package pour générer des requêtes sur le front-end ;
  • remplacement facile des méthodes du contrôleur ;
  • petite configuration ;
  • prise en charge de la documentation swagger.

La fonctionnalité est divisée en plusieurs packages :

  • @nestjsx/crud - le forfait de base fourni par le décorateur Crudité() pour la génération, la configuration et la validation d'itinéraires ;
  • @nestjsx/crud-request — un package qui fournit un générateur/analyseur de requêtes à utiliser côté frontend ;
  • @nestjsx/crud-typeorm — un package d'intégration avec TypeORM, fournissant le service de base TypeOrmCrudService avec des méthodes CRUD pour travailler avec les entités de la base de données.

Dans ce tutoriel, nous aurons besoin de packages nidjsx/crud et nidjsx/crud-typeorm. Tout d'abord, mettons-les

yarn add @nestjsx/crud class-transformer class-validator

Forfaits transformateur de classe и validateur de classe dans cette application sont requis pour une description déclarative des règles de transformation des instances de modèle et de validation des demandes entrantes, respectivement. Ces packages proviennent du même auteur, les interfaces sont donc similaires.

Implémentation directe de CRUD

Nous prendrons une liste d’utilisateurs comme exemple de modèle. Les utilisateurs disposeront des champs suivants : id, username, displayName, email. id - champ auto-incrémenté, email и username - des champs uniques. C'est simple! Il ne reste plus qu'à mettre en œuvre notre idée sous la forme d'une application Nest.
Vous devez d'abord créer un module users, qui sera chargé de travailler avec les utilisateurs. Utilisons le cli de NestJS et exécutons la commande dans le répertoire racine de notre projet nest g module users.

utilisateurs du module Nest G

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects/nest-rest git:(master*)$ nest g module users
CREATE /src/users/users.module.ts (82 bytes)
UPDATE /src/app.module.ts (312 bytes)

Dans ce module, nous ajouterons un dossier d'entités, où nous aurons les modèles de ce module. En particulier, ajoutons ici le fichier user.entity.ts avec une description du modèle utilisateur :

utilisateur.entité.ts

import { Column, Entity, PrimaryGeneratedColumn } from 'typeorm';
@Entity()
export class User {
@PrimaryGeneratedColumn()
id: string;
@Column({unique: true})
email: string;
@Column({unique: true})
username: string;
@Column({nullable: true})
displayName: string;
}

Pour que ce modèle soit « vu » par notre application, il faut dans le module UsersModule importer TypeOrmModule le contenu suivant:

utilisateurs.module.ts

import { Module } from '@nestjs/common';
import { UsersController } from './controllers/users/users.controller';
import { UsersService } from './services/users/users.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import { User } from './entities/user.entity';
@Module({
controllers: [UsersController],
providers: [UsersService],
imports: [
TypeOrmModule.forFeature([User])
]
})
export class UsersModule {}

Autrement dit, ici nous importons TypeOrmModule, où comme paramètre de méthode forFeature Nous indiquons une liste de modèles liés à ce module.

Il ne reste plus qu'à créer l'entité correspondante dans la base de données. Le mécanisme de migration sert à ces fins. Pour créer une migration basée sur les modifications des modèles, vous devez exécuter la commande npm run migration:generate -- CreateUserTable:

titre spoiler

$ npm run migration:generate -- CreateUserTable
Migration /home/dmitrii/projects/nest-rest/migrations/1563346135367-CreateUserTable.ts has been generated successfully.
Done in 1.96s.

Nous n'avons pas eu besoin d'écrire la migration manuellement, tout s'est passé comme par magie. N'est-ce pas un miracle ? Cependant, ce n'est pas tout. Jetons un coup d'œil au fichier de migration créé :

1563346135367-CreateUserTable.ts

import {MigrationInterface, QueryRunner} from "typeorm";
export class CreateUserTable1563346816726 implements MigrationInterface {
public async up(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`CREATE TABLE "user" ("id" SERIAL NOT NULL, "email" character varying NOT NULL, "username" character varying NOT NULL, "displayName" character varying, CONSTRAINT "UQ_e12875dfb3b1d92d7d7c5377e22" UNIQUE ("email"), CONSTRAINT "UQ_78a916df40e02a9deb1c4b75edb" UNIQUE ("username"), CONSTRAINT "PK_cace4a159ff9f2512dd42373760" PRIMARY KEY ("id"))`);
}
public async down(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`DROP TABLE "user"`);
}
}

Comme vous pouvez le constater, non seulement la méthode de démarrage de la migration a été générée automatiquement, mais également la méthode de restauration. Fantastique!
Il ne reste plus qu'à déployer cette migration. Cela se fait avec la commande suivante :

npm run migration:run.

Voilà, maintenant les modifications du schéma ont migré vers la base de données.
Ensuite, nous créerons un service qui sera chargé de travailler avec les utilisateurs et d'en hériter. TypeOrmCrudService. Le référentiel de l'entité d'intérêt doit être passé au paramètre du constructeur parent, dans notre cas User dépôt.

utilisateurs.service.ts

import { Injectable } from '@nestjs/common';
import { TypeOrmCrudService } from '@nestjsx/crud-typeorm';
import { User } from '../../entities/user.entity';
import { InjectRepository } from '@nestjs/typeorm';
import { Repository } from 'typeorm';
@Injectable()
export class UsersService extends TypeOrmCrudService<User>{
constructor(@InjectRepository(User) usersRepository: Repository<User>){
super(usersRepository);
}
}

Nous aurons besoin de ce service dans le contrôleur users. Pour créer un contrôleur, tapez dans la console nest g controller users/controllers/users

utilisateurs/contrôleurs/utilisateurs du contrôleur Nest G

dmitrii@dmitrii-HP-ZBook-17-G3:~/projects/nest-rest git:(master*)$ nest g controller users/controllers/users
CREATE /src/users/controllers/users/users.controller.spec.ts (486 bytes)
CREATE /src/users/controllers/users/users.controller.ts (99 bytes)
UPDATE /src/users/users.module.ts (188 bytes)

Ouvrons ce contrôleur et modifions-le pour ajouter un peu de magie nidjsx/crud. Par classe UsersController Ajoutons un décorateur comme celui-ci :

@Crud({
model: {
type: User
}
})

Crudité est un décorateur qui ajoute au contrôleur les méthodes nécessaires pour travailler avec le modèle. Le type de modèle est indiqué dans le champ model.type configurations de décorateur.
La deuxième étape consiste à implémenter l'interface CrudController<User>. Le code du contrôleur « assemblé » ressemble à ceci :

import { Controller } from '@nestjs/common';
import { Crud, CrudController } from '@nestjsx/crud';
import { User } from '../../entities/user.entity';
import { UsersService } from '../../services/users/users.service';
@Crud({
model: {
type: User
}
})
@Controller('users')
export class UsersController implements CrudController<User>{
constructor(public service: UsersService){}
}

Et c'est tout ! Désormais, le contrôleur prend en charge l'ensemble des opérations avec le modèle ! Vous ne me croyez pas ? Essayons notre application en action !

Création d'un script de requête dans TestMace

Pour tester notre service, nous utiliserons un IDE pour travailler avec l'API Masse d'essai. Pourquoi TestMace ? Par rapport à des produits similaires, il présente les avantages suivants :

  • travail puissant avec des variables. Il existe actuellement plusieurs types de variables, chacune jouant un rôle spécifique : variables intégrées, variables dynamiques, variables d'environnement. Chaque variable appartient à un nœud prenant en charge le mécanisme d'héritage ;
  • Créez facilement des scripts sans programmation. Ceci sera discuté ci-dessous;
  • un format lisible par l'homme qui vous permet de sauvegarder le projet dans les systèmes de contrôle de version ;
  • saisie semi-automatique, coloration syntaxique, coloration des valeurs variables ;
  • Prise en charge de la description de l'API avec possibilité d'importation depuis Swagger.

Démarrons notre serveur avec la commande npm start et essayez d'accéder à la liste des utilisateurs. La liste des utilisateurs, à en juger par la configuration de notre contrôleur, peut être obtenue à partir de l'url localhost:3000/users. Faisons une requête à cette URL.
Après avoir exécuté TestMace, vous pouvez voir une interface comme celle-ci :

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

En haut à gauche se trouve une arborescence de projet avec un nœud racine Projet. Essayons de créer la première requête pour obtenir une liste d'utilisateurs. Pour cela nous allons créer Étape de demande nœud Cela se fait dans le menu contextuel du nœud Projet Ajouter un nœud -> RequestStep.

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Dans le champ URL, collez localhost:3000/users et exécutez la requête. Nous recevrons le code 200 avec un tableau vide dans le corps de la réponse. C’est compréhensible, nous n’avons encore ajouté personne.
Créons un script qui comprendra les étapes suivantes :

  1. créer un utilisateur ;
  2. demande de l'identifiant de l'utilisateur nouvellement créé ;
  3. suppression par identifiant utilisateur créé à l'étape 1.

Alors allons-y. Pour plus de commodité, créons un nœud comme Dossier. Essentiellement, il s'agit simplement d'un dossier dans lequel nous enregistrerons l'intégralité du script. Pour créer un nœud Dossier, sélectionnez Projet dans le menu contextuel du nœud Ajouter un nœud -> Dossier. Appelons le nœud vérifier-créer. À l'intérieur d'un nœud vérifier-créer Créons notre première requête pour créer un utilisateur. Appelons le nœud nouvellement créé Créer un utilisateur. Autrement dit, pour le moment, la hiérarchie des nœuds ressemblera à ceci :

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Passons à l'onglet ouvert Créer un utilisateur nœud. Entrons les paramètres suivants pour la requête :

  • Type de demande - POST
  • URL - hôte local : 3000 XNUMX/utilisateurs
  • Corps - JSON avec valeur {"email": "[email protected]", "displayName": "New user", "username": "user"}

Répondons à cette demande. Notre application indique que l'enregistrement a été créé.

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Eh bien, vérifions ce fait. Afin de fonctionner avec l'identifiant de l'utilisateur créé dans les étapes suivantes, ce paramètre doit être enregistré. Le mécanisme est parfait pour cela. variables dynamiques. Utilisons notre exemple pour voir comment travailler avec eux. Dans l'onglet analysé de la réponse, à côté du nœud id dans le menu contextuel, sélectionnez l'élément Attribuer à une variable. Dans la boîte de dialogue, vous devez définir les paramètres suivants :

  • Nœud — dans lequel des ancêtres créer une variable dynamique. Choisissons vérifier-créer
  • Nom de variable — le nom de cette variable. Appelons userId.

Voici à quoi ressemble le processus de création d'une variable dynamique :

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Désormais, chaque fois que cette requête est exécutée, la valeur de la variable dynamique sera mise à jour. Et parce que les variables dynamiques prennent en charge le mécanisme d'héritage hiérarchique, variable userId sera disponible dans la descendance vérifier-créer nœud de n’importe quel niveau d’imbrication.
Cette variable nous sera utile dans la prochaine requête. À savoir, nous demanderons à l'utilisateur nouvellement créé. En tant qu'enfant d'un nœud vérifier-créer nous allons créer une demande vérifier si existe avec paramètre url égal localhost:3000/users/${$dynamicVar.userId}. Voir la conception ${variable_name} c'est obtenir la valeur d'une variable. Parce que Nous avons une variable dynamique, donc pour l'obtenir, vous devez accéder à l'objet $dynamicVar, c'est-à-dire accéder complètement à une variable dynamique userId ça ressemblera à ça ${$dynamicVar.userId}. Exécutons la requête et assurons-nous que les données sont demandées correctement.
La dernière étape consiste à demander la suppression. Nous en avons besoin non seulement pour vérifier le fonctionnement de la suppression, mais aussi, pour ainsi dire, pour nettoyer après nous dans la base de données, car... Les champs email et nom d'utilisateur sont uniques. Ainsi, dans le nœud check-create, nous créerons une demande de suppression d'utilisateur avec les paramètres suivants

  • Type de demande - SUPPRIMER
  • URL - localhost:3000/users/${$dynamicVar.userId}

Lançons-nous. Nous attendons. Nous apprécions le résultat)

Eh bien, nous pouvons désormais exécuter l’intégralité de ce script à tout moment. Pour exécuter le script, vous devez sélectionner dans le menu contextuel vérifier-créer élément de nœud Courir.

Création CRUD rapide avec nest, @nestjsx/crud et TestMace

Les nœuds du script seront exécutés les uns après les autres
Vous pouvez enregistrer ce script dans votre projet en exécutant Fichier -> Enregistrer le projet.

Conclusion

Toutes les fonctionnalités des outils utilisés ne pouvaient tout simplement pas rentrer dans le format de cet article. Quant au principal coupable - le colis nidjsx/crud - les sujets suivants restent non abordés :

  • validation personnalisée et transformation des modèles ;
  • un langage de requête puissant et son utilisation pratique à l'avant ;
  • redéfinir et ajouter de nouvelles méthodes aux contrôleurs crud ;
  • soutien fanfaron;
  • gestion de la mise en cache.

Cependant, même ce qui est décrit dans l'article est suffisant pour comprendre que même un framework d'entreprise tel que NestJS dispose d'outils pour le prototypage rapide d'applications. Et un IDE tellement cool comme Masse d'essai permet de maintenir un rythme donné.

Code source de cet article, ainsi que du projet Masse d'essai, disponible dans le dépôt https://github.com/TestMace/nest-rest. Pour ouvrir un projet Masse d'essai fais-le simplement dans l'application Fichier -> Ouvrir le projet.

Source: habr.com

Ajouter un commentaire