Creazione CRUD rapida cù nest, @nestjsx/crud è TestMace
Attualmente, l'API REST hè diventata un standard per u sviluppu di l'applicazioni web, chì permette u sviluppu per esse divisu in parti indipendenti. Diversi frameworks populari cum'è Angular, React, Vue è altri sò attualmente usati per UI. I sviluppatori di backend ponu sceglie trà una larga varietà di lingue è frameworks. Oghje vogliu parlà di un tali quadru cum'è NestJS. Semu in TestMace Avemu aduprà attivamente per prughjetti interni. Utilizà u nidu è u pacchettu @nestjsx/crud, creeremu una semplice applicazione CRUD.
Perchè NestJS
Ricertamenti, assai frameworks backend sò apparsu in a cumunità JavaScript. E se in termini di funziunalità furniscenu capacità simili à Nest, allora in una cosa certamente vince - questu hè l'architettura. E seguenti funzioni di NestJS permettenu di creà applicazioni industriali è scala di sviluppu à grandi squadre:
utilizendu TypeScript cum'è lingua di sviluppu principale. Ancu NestJS supporta JavaScript, alcune funziunalità ùn pò micca travaglià, soprattuttu se parlemu di pacchetti di terzu;
a prisenza di un cuntainer DI, chì vi permette di creà cumpunenti chjude;
A funziunalità di u quadru stessu hè divisu in cumpunenti intercambiabili indipendenti. Per esempiu, sottu u cappucciu cum'è un quadru pò esse usatu cum'è espressai, è fastidiu, per travaglià cù a basa di dati, nest out of the box furnisce ligami à tippu, mangusta, sequelize;
NestJS hè agnosticu di a piattaforma è supporta REST, GraphQL, Websockets, gRPC, etc.
U quadru stessu hè ispiratu da u framework frontend Angular è cuncepimentu hà assai in cumunu cun ellu.
Installazione di NestJS è implementazione di u Prughjettu
Nest cuntene un pacchettu nest/cli, chì vi permette di implementà rapidamente un framework di applicazione basica. Stallà stu pacchettu in u mondu:
npm install --global @nest/cli
Dopu a stallazione, avemu da generà u quadru di basa di a nostra applicazione cù u nome nidu-rest. Questu hè fattu cù u cumandimu nest new nest-rest.
nidu novu nidu-restu
dmitrii@dmitrii-HP-ZBook-17-G3:~/projects $ nest new nest-rest
We will scaffold your app in a few seconds..
CREATE /nest-rest/.prettierrc (51 bytes)
CREATE /nest-rest/README.md (3370 bytes)
CREATE /nest-rest/nest-cli.json (84 bytes)
CREATE /nest-rest/nodemon-debug.json (163 bytes)
CREATE /nest-rest/nodemon.json (67 bytes)
CREATE /nest-rest/package.json (1805 bytes)
CREATE /nest-rest/tsconfig.build.json (97 bytes)
CREATE /nest-rest/tsconfig.json (325 bytes)
CREATE /nest-rest/tslint.json (426 bytes)
CREATE /nest-rest/src/app.controller.spec.ts (617 bytes)
CREATE /nest-rest/src/app.controller.ts (274 bytes)
CREATE /nest-rest/src/app.module.ts (249 bytes)
CREATE /nest-rest/src/app.service.ts (142 bytes)
CREATE /nest-rest/src/main.ts (208 bytes)
CREATE /nest-rest/test/app.e2e-spec.ts (561 bytes)
CREATE /nest-rest/test/jest-e2e.json (183 bytes)
? Which package manager would you ️ to use? yarn
Installation in progress...
Successfully created project nest-rest
Get started with the following commands:
$ cd nest-rest
$ yarn run start
Thanks for installing Nest
Please consider donating to our open collective
to help us maintain this package.
Donate: https://opencollective.com/nest
Scegliemu u filatu cum'è u nostru gestore di pacchetti.
À questu puntu pudete inizià u servitore cù u cumandimu npm start è andendu à l'indirizzu http://localhost:3000 pudete vede a pagina principale. Tuttavia, ùn hè micca per quessa chì avemu riunitu quì è andemu avanti.
Configurazione di u travagliu cù a basa di dati
Aghju sceltu PostrgreSQL cum'è DBMS per questu articulu. Ùn ci hè micca disputa nantu à i gusti; in my opinion, questu hè u DBMS più maturu, avè tutte e capacità necessarie. Comu digià dettu, Nest furnisce integrazione cù diversi pacchetti per travaglià cù basa di dati. Perchè Siccomu a mo scelta hè cascata nantu à PostgreSQL, saria logica di sceglie TypeORM cum'è ORM. Stallà i pacchetti necessarii per l'integrazione cù a basa di dati:
yarn add typeorm @nestjs/typeorm pg
In ordine, ciò chì ogni pacchettu hè necessariu per:
typeorm - un pacchettu direttamente da l'ORM stessu;
@nestjs/typeorm - Pacchettu TypeORM per NestJS. Aghjunghje moduli per impurtà in moduli di prughjettu, è ancu un set di decoratori d'aiutu;
pg - driver per travaglià cù PostgreSQL.
Va bè, i pacchetti sò stallati, avà avete bisognu di lancià a basa di dati stessu. Per implementà a basa di dati, aduprà docker-compose.yml cù u cuntenutu seguente:
Comu pudete vede, stu schedariu cunfigura u lanciamentu di 2 cuntenituri:
db hè un containeru chì cuntene direttamente a basa di dati. In u nostru casu, a versione postgresql 11.2 hè aduprata;
amministratore - gestore di basa di dati. Fornisce una interfaccia web per vede è gestisce a basa di dati.
Per travaglià cù e cunnessione tcp, aghju aghjustatu a seguente cunfigurazione.
postgresql.conf
# -----------------------------
# PostgreSQL configuration file
# -----------------------------
#
# This file consists of lines of the form:
#
# name = value
#
# (The "=" is optional.) Whitespace may be used. Comments are introduced with
# "#" anywhere on a line. The complete list of parameter names and allowed
# values can be found in the PostgreSQL documentation.
#
# The commented-out settings shown in this file represent the default values.
# Re-commenting a setting is NOT sufficient to revert it to the default value;
# you need to reload the server.
#
# This file is read on server startup and when the server receives a SIGHUP
# signal. If you edit the file on a running system, you have to SIGHUP the
# server for the changes to take effect, run "pg_ctl reload", or execute
# "SELECT pg_reload_conf()". Some parameters, which are marked below,
# require a server shutdown and restart to take effect.
#
# Any parameter can also be given as a command-line option to the server, e.g.,
# "postgres -c log_connections=on". Some parameters can be changed at run time
# with the "SET" SQL command.
#
# Memory units: kB = kilobytes Time units: ms = milliseconds
# MB = megabytes s = seconds
# GB = gigabytes min = minutes
# TB = terabytes h = hours
# d = days
#------------------------------------------------------------------------------
# FILE LOCATIONS
#------------------------------------------------------------------------------
# The default values of these variables are driven from the -D command-line
# option or PGDATA environment variable, represented here as ConfigDir.
#data_directory = 'ConfigDir' # use data in another directory
# (change requires restart)
#hba_file = 'ConfigDir/pg_hba.conf' # host-based authentication file
# (change requires restart)
#ident_file = 'ConfigDir/pg_ident.conf' # ident configuration file
# (change requires restart)
# If external_pid_file is not explicitly set, no extra PID file is written.
#external_pid_file = '' # write an extra PID file
# (change requires restart)
#------------------------------------------------------------------------------
# CONNECTIONS AND AUTHENTICATION
#------------------------------------------------------------------------------
# - Connection Settings -
listen_addresses = '*'
#listen_addresses = 'localhost' # what IP address(es) to listen on;
# comma-separated list of addresses;
# defaults to 'localhost'; use '*' for all
# (change requires restart)
#port = 5432 # (change requires restart)
#max_connections = 100 # (change requires restart)
#superuser_reserved_connections = 3 # (change requires restart)
#unix_socket_directories = '/tmp' # comma-separated list of directories
# (change requires restart)
#unix_socket_group = '' # (change requires restart)
#unix_socket_permissions = 0777 # begin with 0 to use octal notation
# (change requires restart)
#bonjour = off # advertise server via Bonjour
# (change requires restart)
#bonjour_name = '' # defaults to the computer name
# (change requires restart)
# - TCP Keepalives -
# see "man 7 tcp" for details
#tcp_keepalives_idle = 0 # TCP_KEEPIDLE, in seconds;
# 0 selects the system default
#tcp_keepalives_interval = 0 # TCP_KEEPINTVL, in seconds;
# 0 selects the system default
#tcp_keepalives_count = 0 # TCP_KEEPCNT;
# 0 selects the system default
# - Authentication -
#authentication_timeout = 1min # 1s-600s
#password_encryption = md5 # md5 or scram-sha-256
#db_user_namespace = off
# GSSAPI using Kerberos
#krb_server_keyfile = ''
#krb_caseins_users = off
# - SSL -
#ssl = off
#ssl_ca_file = ''
#ssl_cert_file = 'server.crt'
#ssl_crl_file = ''
#ssl_key_file = 'server.key'
#ssl_ciphers = 'HIGH:MEDIUM:+3DES:!aNULL' # allowed SSL ciphers
#ssl_prefer_server_ciphers = on
#ssl_ecdh_curve = 'prime256v1'
#ssl_min_protocol_version = 'TLSv1'
#ssl_max_protocol_version = ''
#ssl_dh_params_file = ''
#ssl_passphrase_command = ''
#ssl_passphrase_command_supports_reload = off
#------------------------------------------------------------------------------
# RESOURCE USAGE (except WAL)
#------------------------------------------------------------------------------
# - Memory -
#shared_buffers = 32MB # min 128kB
# (change requires restart)
#huge_pages = try # on, off, or try
# (change requires restart)
#temp_buffers = 8MB # min 800kB
#max_prepared_transactions = 0 # zero disables the feature
# (change requires restart)
# Caution: it is not advisable to set max_prepared_transactions nonzero unless
# you actively intend to use prepared transactions.
#work_mem = 4MB # min 64kB
#maintenance_work_mem = 64MB # min 1MB
#autovacuum_work_mem = -1 # min 1MB, or -1 to use maintenance_work_mem
#max_stack_depth = 2MB # min 100kB
#shared_memory_type = mmap # the default is the first option
# supported by the operating system:
# mmap
# sysv
# windows
# (change requires restart)
#dynamic_shared_memory_type = posix # the default is the first option
# supported by the operating system:
# posix
# sysv
# windows
# mmap
# (change requires restart)
# - Disk -
#temp_file_limit = -1 # limits per-process temp file space
# in kB, or -1 for no limit
# - Kernel Resources -
#max_files_per_process = 1000 # min 25
# (change requires restart)
# - Cost-Based Vacuum Delay -
#vacuum_cost_delay = 0 # 0-100 milliseconds (0 disables)
#vacuum_cost_page_hit = 1 # 0-10000 credits
#vacuum_cost_page_miss = 10 # 0-10000 credits
#vacuum_cost_page_dirty = 20 # 0-10000 credits
#vacuum_cost_limit = 200 # 1-10000 credits
# - Background Writer -
#bgwriter_delay = 200ms # 10-10000ms between rounds
#bgwriter_lru_maxpages = 100 # max buffers written/round, 0 disables
#bgwriter_lru_multiplier = 2.0 # 0-10.0 multiplier on buffers scanned/round
#bgwriter_flush_after = 0 # measured in pages, 0 disables
# - Asynchronous Behavior -
#effective_io_concurrency = 1 # 1-1000; 0 disables prefetching
#max_worker_processes = 8 # (change requires restart)
#max_parallel_maintenance_workers = 2 # taken from max_parallel_workers
#max_parallel_workers_per_gather = 2 # taken from max_parallel_workers
#parallel_leader_participation = on
#max_parallel_workers = 8 # maximum number of max_worker_processes that
# can be used in parallel operations
#old_snapshot_threshold = -1 # 1min-60d; -1 disables; 0 is immediate
# (change requires restart)
#backend_flush_after = 0 # measured in pages, 0 disables
#------------------------------------------------------------------------------
# WRITE-AHEAD LOG
#------------------------------------------------------------------------------
# - Settings -
#wal_level = replica # minimal, replica, or logical
# (change requires restart)
#fsync = on # flush data to disk for crash safety
# (turning this off can cause
# unrecoverable data corruption)
#synchronous_commit = on # synchronization level;
# off, local, remote_write, remote_apply, or on
#wal_sync_method = fsync # the default is the first option
# supported by the operating system:
# open_datasync
# fdatasync (default on Linux)
# fsync
# fsync_writethrough
# open_sync
#full_page_writes = on # recover from partial page writes
#wal_compression = off # enable compression of full-page writes
#wal_log_hints = off # also do full page writes of non-critical updates
# (change requires restart)
#wal_buffers = -1 # min 32kB, -1 sets based on shared_buffers
# (change requires restart)
#wal_writer_delay = 200ms # 1-10000 milliseconds
#wal_writer_flush_after = 1MB # measured in pages, 0 disables
#commit_delay = 0 # range 0-100000, in microseconds
#commit_siblings = 5 # range 1-1000
# - Checkpoints -
#checkpoint_timeout = 5min # range 30s-1d
#max_wal_size = 1GB
#min_wal_size = 80MB
#checkpoint_completion_target = 0.5 # checkpoint target duration, 0.0 - 1.0
#checkpoint_flush_after = 0 # measured in pages, 0 disables
#checkpoint_warning = 30s # 0 disables
# - Archiving -
#archive_mode = off # enables archiving; off, on, or always
# (change requires restart)
#archive_command = '' # command to use to archive a logfile segment
# placeholders: %p = path of file to archive
# %f = file name only
# e.g. 'test ! -f /mnt/server/archivedir/%f && cp %p /mnt/server/archivedir/%f'
#archive_timeout = 0 # force a logfile segment switch after this
# number of seconds; 0 disables
# - Archive Recovery -
# These are only used in recovery mode.
#restore_command = '' # command to use to restore an archived logfile segment
# placeholders: %p = path of file to restore
# %f = file name only
# e.g. 'cp /mnt/server/archivedir/%f %p'
# (change requires restart)
#archive_cleanup_command = '' # command to execute at every restartpoint
#recovery_end_command = '' # command to execute at completion of recovery
# - Recovery Target -
# Set these only when performing a targeted recovery.
#recovery_target = '' # 'immediate' to end recovery as soon as a
# consistent state is reached
# (change requires restart)
#recovery_target_name = '' # the named restore point to which recovery will proceed
# (change requires restart)
#recovery_target_time = '' # the time stamp up to which recovery will proceed
# (change requires restart)
#recovery_target_xid = '' # the transaction ID up to which recovery will proceed
# (change requires restart)
#recovery_target_lsn = '' # the WAL LSN up to which recovery will proceed
# (change requires restart)
#recovery_target_inclusive = on # Specifies whether to stop:
# just after the specified recovery target (on)
# just before the recovery target (off)
# (change requires restart)
#recovery_target_timeline = 'latest' # 'current', 'latest', or timeline ID
# (change requires restart)
#recovery_target_action = 'pause' # 'pause', 'promote', 'shutdown'
# (change requires restart)
#------------------------------------------------------------------------------
# REPLICATION
#------------------------------------------------------------------------------
# - Sending Servers -
# Set these on the master and on any standby that will send replication data.
#max_wal_senders = 10 # max number of walsender processes
# (change requires restart)
#wal_keep_segments = 0 # in logfile segments; 0 disables
#wal_sender_timeout = 60s # in milliseconds; 0 disables
#max_replication_slots = 10 # max number of replication slots
# (change requires restart)
#track_commit_timestamp = off # collect timestamp of transaction commit
# (change requires restart)
# - Master Server -
# These settings are ignored on a standby server.
#synchronous_standby_names = '' # standby servers that provide sync rep
# method to choose sync standbys, number of sync standbys,
# and comma-separated list of application_name
# from standby(s); '*' = all
#vacuum_defer_cleanup_age = 0 # number of xacts by which cleanup is delayed
# - Standby Servers -
# These settings are ignored on a master server.
#primary_conninfo = '' # connection string to sending server
# (change requires restart)
#primary_slot_name = '' # replication slot on sending server
# (change requires restart)
#promote_trigger_file = '' # file name whose presence ends recovery
#hot_standby = on # "off" disallows queries during recovery
# (change requires restart)
#max_standby_archive_delay = 30s # max delay before canceling queries
# when reading WAL from archive;
# -1 allows indefinite delay
#max_standby_streaming_delay = 30s # max delay before canceling queries
# when reading streaming WAL;
# -1 allows indefinite delay
#wal_receiver_status_interval = 10s # send replies at least this often
# 0 disables
#hot_standby_feedback = off # send info from standby to prevent
# query conflicts
#wal_receiver_timeout = 60s # time that receiver waits for
# communication from master
# in milliseconds; 0 disables
#wal_retrieve_retry_interval = 5s # time to wait before retrying to
# retrieve WAL after a failed attempt
#recovery_min_apply_delay = 0 # minimum delay for applying changes during recovery
# - Subscribers -
# These settings are ignored on a publisher.
#max_logical_replication_workers = 4 # taken from max_worker_processes
# (change requires restart)
#max_sync_workers_per_subscription = 2 # taken from max_logical_replication_workers
#------------------------------------------------------------------------------
# QUERY TUNING
#------------------------------------------------------------------------------
# - Planner Method Configuration -
#enable_bitmapscan = on
#enable_hashagg = on
#enable_hashjoin = on
#enable_indexscan = on
#enable_indexonlyscan = on
#enable_material = on
#enable_mergejoin = on
#enable_nestloop = on
#enable_parallel_append = on
#enable_seqscan = on
#enable_sort = on
#enable_tidscan = on
#enable_partitionwise_join = off
#enable_partitionwise_aggregate = off
#enable_parallel_hash = on
#enable_partition_pruning = on
# - Planner Cost Constants -
#seq_page_cost = 1.0 # measured on an arbitrary scale
#random_page_cost = 4.0 # same scale as above
#cpu_tuple_cost = 0.01 # same scale as above
#cpu_index_tuple_cost = 0.005 # same scale as above
#cpu_operator_cost = 0.0025 # same scale as above
#parallel_tuple_cost = 0.1 # same scale as above
#parallel_setup_cost = 1000.0 # same scale as above
#jit_above_cost = 100000 # perform JIT compilation if available
# and query more expensive than this;
# -1 disables
#jit_inline_above_cost = 500000 # inline small functions if query is
# more expensive than this; -1 disables
#jit_optimize_above_cost = 500000 # use expensive JIT optimizations if
# query is more expensive than this;
# -1 disables
#min_parallel_table_scan_size = 8MB
#min_parallel_index_scan_size = 512kB
#effective_cache_size = 4GB
# - Genetic Query Optimizer -
#geqo = on
#geqo_threshold = 12
#geqo_effort = 5 # range 1-10
#geqo_pool_size = 0 # selects default based on effort
#geqo_generations = 0 # selects default based on effort
#geqo_selection_bias = 2.0 # range 1.5-2.0
#geqo_seed = 0.0 # range 0.0-1.0
# - Other Planner Options -
#default_statistics_target = 100 # range 1-10000
#constraint_exclusion = partition # on, off, or partition
#cursor_tuple_fraction = 0.1 # range 0.0-1.0
#from_collapse_limit = 8
#join_collapse_limit = 8 # 1 disables collapsing of explicit
# JOIN clauses
#force_parallel_mode = off
#jit = on # allow JIT compilation
#plan_cache_mode = auto # auto, force_generic_plan or
# force_custom_plan
#------------------------------------------------------------------------------
# REPORTING AND LOGGING
#------------------------------------------------------------------------------
# - Where to Log -
#log_destination = 'stderr' # Valid values are combinations of
# stderr, csvlog, syslog, and eventlog,
# depending on platform. csvlog
# requires logging_collector to be on.
# This is used when logging to stderr:
#logging_collector = off # Enable capturing of stderr and csvlog
# into log files. Required to be on for
# csvlogs.
# (change requires restart)
# These are only used if logging_collector is on:
#log_directory = 'log' # directory where log files are written,
# can be absolute or relative to PGDATA
#log_filename = 'postgresql-%Y-%m-%d_%H%M%S.log' # log file name pattern,
# can include strftime() escapes
#log_file_mode = 0600 # creation mode for log files,
# begin with 0 to use octal notation
#log_truncate_on_rotation = off # If on, an existing log file with the
# same name as the new log file will be
# truncated rather than appended to.
# But such truncation only occurs on
# time-driven rotation, not on restarts
# or size-driven rotation. Default is
# off, meaning append to existing files
# in all cases.
#log_rotation_age = 1d # Automatic rotation of logfiles will
# happen after that time. 0 disables.
#log_rotation_size = 10MB # Automatic rotation of logfiles will
# happen after that much log output.
# 0 disables.
# These are relevant when logging to syslog:
#syslog_facility = 'LOCAL0'
#syslog_ident = 'postgres'
#syslog_sequence_numbers = on
#syslog_split_messages = on
# This is only relevant when logging to eventlog (win32):
# (change requires restart)
#event_source = 'PostgreSQL'
# - When to Log -
#log_min_messages = warning # values in order of decreasing detail:
# debug5
# debug4
# debug3
# debug2
# debug1
# info
# notice
# warning
# error
# log
# fatal
# panic
#log_min_error_statement = error # values in order of decreasing detail:
# debug5
# debug4
# debug3
# debug2
# debug1
# info
# notice
# warning
# error
# log
# fatal
# panic (effectively off)
#log_min_duration_statement = -1 # logs statements and their durations
# according to log_statement_sample_rate. -1 is disabled,
# 0 logs all statement, > 0 logs only statements running at
# least this number of milliseconds.
#log_statement_sample_rate = 1 # Fraction of logged statements over
# log_min_duration_statement. 1.0 logs all statements,
# 0 never logs.
# - What to Log -
#debug_print_parse = off
#debug_print_rewritten = off
#debug_print_plan = off
#debug_pretty_print = on
#log_checkpoints = off
#log_connections = off
#log_disconnections = off
#log_duration = off
#log_error_verbosity = default # terse, default, or verbose messages
#log_hostname = off
#log_line_prefix = '%m [%p] ' # special values:
# %a = application name
# %u = user name
# %d = database name
# %r = remote host and port
# %h = remote host
# %p = process ID
# %t = timestamp without milliseconds
# %m = timestamp with milliseconds
# %n = timestamp with milliseconds (as a Unix epoch)
# %i = command tag
# %e = SQL state
# %c = session ID
# %l = session line number
# %s = session start timestamp
# %v = virtual transaction ID
# %x = transaction ID (0 if none)
# %q = stop here in non-session
# processes
# %% = '%'
# e.g. '<%u%%%d> '
#log_lock_waits = off # log lock waits >= deadlock_timeout
#log_statement = 'none' # none, ddl, mod, all
#log_replication_commands = off
#log_temp_files = -1 # log temporary files equal or larger
# than the specified size in kilobytes;
# -1 disables, 0 logs all temp files
#log_timezone = 'GMT'
#------------------------------------------------------------------------------
# PROCESS TITLE
#------------------------------------------------------------------------------
#cluster_name = '' # added to process titles if nonempty
# (change requires restart)
#update_process_title = on
#------------------------------------------------------------------------------
# STATISTICS
#------------------------------------------------------------------------------
# - Query and Index Statistics Collector -
#track_activities = on
#track_counts = on
#track_io_timing = off
#track_functions = none # none, pl, all
#track_activity_query_size = 1024 # (change requires restart)
#stats_temp_directory = 'pg_stat_tmp'
# - Monitoring -
#log_parser_stats = off
#log_planner_stats = off
#log_executor_stats = off
#log_statement_stats = off
#------------------------------------------------------------------------------
# AUTOVACUUM
#------------------------------------------------------------------------------
#autovacuum = on # Enable autovacuum subprocess? 'on'
# requires track_counts to also be on.
#log_autovacuum_min_duration = -1 # -1 disables, 0 logs all actions and
# their durations, > 0 logs only
# actions running at least this number
# of milliseconds.
#autovacuum_max_workers = 3 # max number of autovacuum subprocesses
# (change requires restart)
#autovacuum_naptime = 1min # time between autovacuum runs
#autovacuum_vacuum_threshold = 50 # min number of row updates before
# vacuum
#autovacuum_analyze_threshold = 50 # min number of row updates before
# analyze
#autovacuum_vacuum_scale_factor = 0.2 # fraction of table size before vacuum
#autovacuum_analyze_scale_factor = 0.1 # fraction of table size before analyze
#autovacuum_freeze_max_age = 200000000 # maximum XID age before forced vacuum
# (change requires restart)
#autovacuum_multixact_freeze_max_age = 400000000 # maximum multixact age
# before forced vacuum
# (change requires restart)
#autovacuum_vacuum_cost_delay = 2ms # default vacuum cost delay for
# autovacuum, in milliseconds;
# -1 means use vacuum_cost_delay
#autovacuum_vacuum_cost_limit = -1 # default vacuum cost limit for
# autovacuum, -1 means use
# vacuum_cost_limit
#------------------------------------------------------------------------------
# CLIENT CONNECTION DEFAULTS
#------------------------------------------------------------------------------
# - Statement Behavior -
#client_min_messages = notice # values in order of decreasing detail:
# debug5
# debug4
# debug3
# debug2
# debug1
# log
# notice
# warning
# error
#search_path = '"$user", public' # schema names
#row_security = on
#default_tablespace = '' # a tablespace name, '' uses the default
#temp_tablespaces = '' # a list of tablespace names, '' uses
# only default tablespace
#check_function_bodies = on
#default_transaction_isolation = 'read committed'
#default_transaction_read_only = off
#default_transaction_deferrable = off
#session_replication_role = 'origin'
#statement_timeout = 0 # in milliseconds, 0 is disabled
#lock_timeout = 0 # in milliseconds, 0 is disabled
#idle_in_transaction_session_timeout = 0 # in milliseconds, 0 is disabled
#vacuum_freeze_min_age = 50000000
#vacuum_freeze_table_age = 150000000
#vacuum_multixact_freeze_min_age = 5000000
#vacuum_multixact_freeze_table_age = 150000000
#vacuum_cleanup_index_scale_factor = 0.1 # fraction of total number of tuples
# before index cleanup, 0 always performs
# index cleanup
#bytea_output = 'hex' # hex, escape
#xmlbinary = 'base64'
#xmloption = 'content'
#gin_fuzzy_search_limit = 0
#gin_pending_list_limit = 4MB
# - Locale and Formatting -
#datestyle = 'iso, mdy'
#intervalstyle = 'postgres'
#timezone = 'GMT'
#timezone_abbreviations = 'Default' # Select the set of available time zone
# abbreviations. Currently, there are
# Default
# Australia (historical usage)
# India
# You can create your own file in
# share/timezonesets/.
#extra_float_digits = 1 # min -15, max 3; any value >0 actually
# selects precise output mode
#client_encoding = sql_ascii # actually, defaults to database
# encoding
# These settings are initialized by initdb, but they can be changed.
#lc_messages = 'C' # locale for system error message
# strings
#lc_monetary = 'C' # locale for monetary formatting
#lc_numeric = 'C' # locale for number formatting
#lc_time = 'C' # locale for time formatting
# default configuration for text search
#default_text_search_config = 'pg_catalog.simple'
# - Shared Library Preloading -
#shared_preload_libraries = '' # (change requires restart)
#local_preload_libraries = ''
#session_preload_libraries = ''
#jit_provider = 'llvmjit' # JIT library to use
# - Other Defaults -
#dynamic_library_path = '$libdir'
#------------------------------------------------------------------------------
# LOCK MANAGEMENT
#------------------------------------------------------------------------------
#deadlock_timeout = 1s
#max_locks_per_transaction = 64 # min 10
# (change requires restart)
#max_pred_locks_per_transaction = 64 # min 10
# (change requires restart)
#max_pred_locks_per_relation = -2 # negative values mean
# (max_pred_locks_per_transaction
# / -max_pred_locks_per_relation) - 1
#max_pred_locks_per_page = 2 # min 0
#------------------------------------------------------------------------------
# VERSION AND PLATFORM COMPATIBILITY
#------------------------------------------------------------------------------
# - Previous PostgreSQL Versions -
#array_nulls = on
#backslash_quote = safe_encoding # on, off, or safe_encoding
#escape_string_warning = on
#lo_compat_privileges = off
#operator_precedence_warning = off
#quote_all_identifiers = off
#standard_conforming_strings = on
#synchronize_seqscans = on
# - Other Platforms and Clients -
#transform_null_equals = off
#------------------------------------------------------------------------------
# ERROR HANDLING
#------------------------------------------------------------------------------
#exit_on_error = off # terminate session on any error?
#restart_after_crash = on # reinitialize after backend crash?
#data_sync_retry = off # retry or panic on failure to fsync
# data?
# (change requires restart)
#------------------------------------------------------------------------------
# CONFIG FILE INCLUDES
#------------------------------------------------------------------------------
# These options allow settings to be loaded from files other than the
# default postgresql.conf.
#include_dir = 'conf.d' # include files ending in '.conf' from
# directory 'conf.d'
#include_if_exists = 'exists.conf' # include file only if it exists
#include = 'special.conf' # include file
#------------------------------------------------------------------------------
# CUSTOMIZED OPTIONS
#------------------------------------------------------------------------------
# Add settings for extensions here
Hè tuttu, pudete inizià cuntenituri cù u cumandamentu docker-compose up -d. O in una cunsola separata cù u cumandimu docker-compose up.
Allora, i pacchetti sò stati installati, a basa di dati hè stata lanciata, tuttu ciò chì resta hè di fà amici cù l'altri. Per fà questu, avete bisognu di aghjunghje u schedariu seguente à a radica di u prughjettu: ormconfig.js:
Fighjemu sta cunfigurazione in più detail. Nantu à e linee 3 è 4 avemu u nome d'utilizatore è a password da e variabili di l'ambiente. Questu hè convenientu quandu avete parechji ambienti (dev, stage, prod, etc.). Per automaticamente, u nome d'utilizatore hè postgres è a password hè un esempiu. U restu di a cunfigurazione hè triviale, cusì ci concentreremu solu nantu à i paràmetri più interessanti:
synchronize - Indica se u schema di basa di dati deve esse creatu automaticamente quandu l'applicazione principia. Attenti à sta opzione è ùn l'utilizanu micca in a pruduzzione, altrimenti perderete dati. Questa opzione hè cunvene quandu si sviluppa è debugging una applicazione. Comu alternativa à sta opzione, pudete aduprà u cumandamentu schema:sync da CLI TypeORM.
dropSchema - resettate u schema ogni volta chì una cunnessione hè stabilita. Cum'è a precedente, sta opzione deve esse usata solu durante u sviluppu è u debugging di l'applicazione.
entità - quali camini à circà discrizzioni di mudelli. Per piacè nutate chì a ricerca per maschera hè supportata.
cli.entitiesDir hè u repertoriu induve i mudelli creati da TypeORM CLI devenu esse almacenati per difettu.
Per pudè usà tutte e funzioni di TypeORM in a nostra applicazione Nest, avemu bisognu di impurtà u modulu TypeOrmModule в AppModule. Quelli. u vostru AppModule sarà cusì:
app.module.ts
import { Module } from '@nestjs/common';
import { AppController } from './app.controller';
import { AppService } from './app.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import * as process from "process";
const username = process.env.POSTGRES_USER || 'postgres';
const password = process.env.POSTGRES_PASSWORD || 'example';
@Module({
imports: [
TypeOrmModule.forRoot({
type: 'postgres',
host: 'localhost',
port: 5432,
username,
password,
database: 'postgres',
entities: [__dirname + '/**/*.entity{.ts,.js}'],
synchronize: true,
}),
],
controllers: [AppController],
providers: [AppService],
})
export class AppModule {}
Comu pudete avè nutatu, u metudu forRoot a listessa cunfigurazione per travaglià cù a basa di dati hè trasferita cum'è in u schedariu ormconfig.ts
U toccu finale resta - aghjunghje parechje attività per travaglià cù TypeORM in package.json. U fattu hè chì u CLI hè scrittu in javascript è corre in l'ambiente nodejs. In ogni casu, tutti i nostri mudelli è migrazioni seranu scritti in dattigrafu. Per quessa, hè necessariu di traspilate e nostre migrazioni è mudelli prima di utilizà a CLI. Per questu avemu bisognu di u pacchettu ts-node:
yarn add -D ts-node
Dopu quì, aghjunghje i cumandamenti necessarii à package.json:
"typeorm": "ts-node -r tsconfig-paths/register ./node_modules/typeorm/cli.js",
"migration:generate": "yarn run typeorm migration:generate -n",
"migration:create": "yarn run typeorm migration:create -n",
"migration:run": "yarn run typeorm migration:run"
U primu cumandamentu, typeorm, aghjunghje un wrapper ts-node per eseguisce u TypeORM cli. I cumandamenti rimanenti sò accurtatoghji convenienti chì voi, cum'è sviluppatore, aduprà quasi ogni ghjornu: migration:generate - crea migrazioni basatu nantu à i cambiamenti in i vostri mudelli. migration:create - creendu una migrazione viota. migration:run - lanciazione di migrazioni.
Ebbè, questu hè avà, avemu aghjustatu i pacchetti necessarii, cunfiguratu l'applicazione per travaglià cù a basa di dati da u cli è da l'applicazione stessa, è ancu lanciatu u DBMS. Hè ora di aghjunghje logica à a nostra applicazione.
Installazione di pacchetti per creà CRUD
Utilizendu solu Nest, pudete creà una API chì vi permette di creà, leghje, aghjurnà è sguassà una entità. Sta suluzione serà u più flexible pussibule, ma in certi casi serà redundante. Per esempiu, sè avete bisognu di creà rapidamente un prototipu, pudete spessu sacrificà a flessibilità per a rapidità di u sviluppu. Parechji frameworks furniscenu funziunalità per generà CRUD discrittendu u mudellu di dati di una certa entità. È Nest ùn hè micca eccezzioni! Sta funziunalità hè furnita da u pacchettu @nestjsx/crud. E so capacità sò assai interessanti:
installazione è cunfigurazione faciule;
indipendenza DBMS;
lingua di query putente cù a capacità di filtrà, paginate, sorte, rilazioni di carica è entità nidificate, caching, etc.;
pacchettu per generà richieste in u front-end;
annullamentu faciule di i metudi di cuntrollu;
piccula cunfigurazione;
supportu di documentazione di swagger.
A funziunalità hè divisa in parechji pacchetti:
@nestjsx/crud - u pacchettu di basa chì u decoratore furnisce Crudu() per generazione di rotte, cunfigurazione è validazione;
@nestjsx/crud-request - un pacchettu chì furnisce un builder / parser di query per l'usu di u frontend;
@nestjsx/crud-typeorm - un pacchettu per integrazione cù TypeORM, chì furnisce u serviziu di basa TypeOrmCrudService cù metudi CRUD per travaglià cù entità in a basa di dati.
In questu tutoriale avemu bisognu di pacchetti nestjsx/crud è nestjsx/crud-typeorm. Prima, mettemu
Pacchetti trasformatore di classa и validatore di classi in questa applicazione sò richiesti per una descrizzione dichjarazione di e regule per trasfurmà l'istanze di mudellu è validà e richieste entrate, rispettivamente. Questi pacchetti sò da u stessu autore, cusì l'interfaccia sò simili.
Implementazione diretta di CRUD
Pigliemu una lista di utilizatori cum'è un mudellu di esempiu. L'utilizatori avè i seguenti campi: id, username, displayName, email. id - campu autumàticu, email и username - campi unichi. Hè simplice! Tuttu ciò chì resta hè di implementà a nostra idea in forma di una applicazione Nest.
Prima avete bisognu di creà un modulu users, chì serà rispunsevuli di travaglià cù l'utilizatori. Utilizemu u cli da NestJS è eseguite u cumandimu in u cartulare radicale di u nostru prughjettu nest g module users.
In questu modulu aghjunghjemu un cartulare di entità, induve averemu i mudelli di stu modulu. In particulare, aghjustemu quì u schedariu user.entity.ts cù una descrizzione di u mudellu d'utilizatore:
user.entity.ts
import { Column, Entity, PrimaryGeneratedColumn } from 'typeorm';
@Entity()
export class User {
@PrimaryGeneratedColumn()
id: string;
@Column({unique: true})
email: string;
@Column({unique: true})
username: string;
@Column({nullable: true})
displayName: string;
}
Per chì stu mudellu sia "visu" da a nostra applicazione, hè necessariu in u modulu UsersModule impurtà TypeOrmModule u seguenti cuntenutu:
utilizatori.modulu.ts
import { Module } from '@nestjs/common';
import { UsersController } from './controllers/users/users.controller';
import { UsersService } from './services/users/users.service';
import { TypeOrmModule } from '@nestjs/typeorm';
import { User } from './entities/user.entity';
@Module({
controllers: [UsersController],
providers: [UsersService],
imports: [
TypeOrmModule.forFeature([User])
]
})
export class UsersModule {}
Questu hè, quì avemu impurtatu TypeOrmModule, induve cum'è un paràmetru di metudu forFeature Indichemu una lista di mudelli ligati à stu modulu.
Tuttu ciò chì resta hè di creà l'entità currispondente in a basa di dati. U mecanismu di migrazione serve per questi scopi. Per creà una migrazione basatu nantu à i cambiamenti in mudelli, avete bisognu di eseguisce u cumandamentu npm run migration:generate -- CreateUserTable:
titre spoiler
$ npm run migration:generate -- CreateUserTable
Migration /home/dmitrii/projects/nest-rest/migrations/1563346135367-CreateUserTable.ts has been generated successfully.
Done in 1.96s.
Ùn avemu micca bisognu di scrive a migrazione manualmente, tuttu hè accadutu magicu. Ùn hè micca questu un miraculu ! Tuttavia, ùn hè micca tuttu. Fighjemu un ochju à u schedariu di migrazione creatu:
1563346135367-CreateUserTable.ts
import {MigrationInterface, QueryRunner} from "typeorm";
export class CreateUserTable1563346816726 implements MigrationInterface {
public async up(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`CREATE TABLE "user" ("id" SERIAL NOT NULL, "email" character varying NOT NULL, "username" character varying NOT NULL, "displayName" character varying, CONSTRAINT "UQ_e12875dfb3b1d92d7d7c5377e22" UNIQUE ("email"), CONSTRAINT "UQ_78a916df40e02a9deb1c4b75edb" UNIQUE ("username"), CONSTRAINT "PK_cace4a159ff9f2512dd42373760" PRIMARY KEY ("id"))`);
}
public async down(queryRunner: QueryRunner): Promise<any> {
await queryRunner.query(`DROP TABLE "user"`);
}
}
Comu pudete vede, micca solu u metudu per inizià a migrazione hè stata generata automaticamente, ma ancu u metudu per rinvià. Fantasticu!
Il ne reste plus qu'à lancer cette migration. Questu hè fattu cù u cumandimu seguitu:
npm run migration:run.
Hè questu, avà i cambiamenti di schema sò migrati à a basa di dati.
In seguitu, avemu da creà un serviziu chì serà rispunsevuli di travaglià cù l'utilizatori è eredite da TypeOrmCrudService. U repository di l'entità d'interessu deve esse passatu à u paràmetru di u constructore parent, in u nostru casu User repository.
utilizatori.serviziu.ts
import { Injectable } from '@nestjs/common';
import { TypeOrmCrudService } from '@nestjsx/crud-typeorm';
import { User } from '../../entities/user.entity';
import { InjectRepository } from '@nestjs/typeorm';
import { Repository } from 'typeorm';
@Injectable()
export class UsersService extends TypeOrmCrudService<User>{
constructor(@InjectRepository(User) usersRepository: Repository<User>){
super(usersRepository);
}
}
Avemu bisognu di stu serviziu in u controller users. Per creà un controller, scrive in a cunsola nest g controller users/controllers/users
Aprimu stu controller è edità per aghjunghje un pocu di magia nestjsx/crud. Per classe UsersController Aghjunghjemu un decoratore cum'è questu:
@Crud({
model: {
type: User
}
})
Crudu hè un decoratore chì aghjunghje à u controller i metudi necessarii per travaglià cù u mudellu. U tipu di mudellu hè indicatu in u campu model.type cunfigurazioni di decoratori.
U sicondu passu hè di implementà l'interfaccia CrudController<User>. U codice di cuntrollu "Assemblatu" hè cusì:
import { Controller } from '@nestjs/common';
import { Crud, CrudController } from '@nestjsx/crud';
import { User } from '../../entities/user.entity';
import { UsersService } from '../../services/users/users.service';
@Crud({
model: {
type: User
}
})
@Controller('users')
export class UsersController implements CrudController<User>{
constructor(public service: UsersService){}
}
È hè tuttu! Avà u controller sustene u settore tutale di operazioni cù u mudellu! Ùn mi crede? Pruvemu a nostra applicazione in azione!
Creazione di un Script di Query in TestMace
Per pruvà u nostru serviziu useremu un IDE per travaglià cù l'API TestMace. Perchè TestMace? In cunfrontu cù prudutti simili, hà i seguenti vantaghji:
travagliu putente cù variàbili. À u mumentu, ci sò parechji tippi di variàbili, ognuna di quali ghjoca un rolu specificu: variabili integrati, variabili dinamichi, variàbili di l'ambiente. Ogni variàbile appartene à un node cù supportu per u mecanismu di l'eredi;
Crea facilmente scripts senza prugrammazione. Questu serà discutitu quì sottu;
un furmatu di leghjite umanu chì permette di salvà u prugettu in sistemi di cuntrollu di versione;
autocompletazione, evidenziazione di sintassi, evidenziazione di valore variabile;
Supportu di descrizzione API cù a capacità di impurtà da Swagger.
Cuminciamu u nostru servitore cù u cumandimu npm start è pruvate à accede à a lista di l'utilizatori. A lista di l'utilizatori, à ghjudicà da a nostra cunfigurazione di u controller, pò esse acquistatu da l'url localhost: 3000/users. Facemu una dumanda à questu url.
Dopu avè eseguitu TestMace, pudete vede una interfaccia cusì:
In cima manca hè un arbulu di prughjettu cù un node radicali Project. Pruvemu di creà a prima dumanda per ottene una lista di utilizatori. Per questu avemu da creà Request Step nodu Questu hè fattu in u menù di cuntestu di u node Project Add node -> RequestStep.
In u campu URL, incolla localhost: 3000/users è eseguite a dumanda. Riceveremu u codice 200 cù un array viotu in u corpu di risposta. Si capisce, ùn avemu micca aghjustatu nimu.
Creemu un script chì includerà i seguenti passi:
crià un utilizatore;
dumanda per l'id di l'utilizatore novu creatu;
eliminazione da l'ID d'utilizatore creatu in u passu 1.
Allora, andemu. Per comodità, creemu un node cum'è Folder. Essenzialmente, questu hè solu un cartulare in quale salveremu tuttu u script. Per creà un node Folder, selezziunate Prughjettu da u menù di cuntestu di u node Add node -> Folder. Chjamemu u nodu verificate-creà. Dentru un nodu verificate-creà Creemu a nostra prima dumanda per creà un utilizatore. Chjamemu u nodu novu creatu creà-utente. Vale à dì, à u mumentu a ghjerarchia di i nodi parerà cusì:
Andemu à a tabulazione aperta creà-utente nodu. Entremu i seguenti parametri per a dumanda:
Tipu di dumanda - POST
URL - host locale: 3000/utilizatori
Corpu - JSON cù valore {"email": "[email protected]", "displayName": "New user", "username": "user"}
Cumpitemu sta dumanda. A nostra applicazione dice chì u record hè statu creatu.
Ebbè, andemu à verificà stu fattu. Per uperà cù l'id di l'utilizatore creatu in i passi successivi, stu paràmetru deve esse salvatu. U mecanismu hè perfetta per questu. variabili dinamichi. Utilizemu u nostru esempiu per vede cumu travaglià cun elli. In a tabulazione analizata di a risposta, accantu à u node id in u menù di cuntestu, selezziunate l'elementu Assignà à a variabile. In a finestra di dialogu, duvete stabilisce i seguenti parametri:
Nodu - in quale di l'antenati per creà una variabile dinamica. Andemu à sceglie verificate-creà
Nome di variabile - u nome di sta variabile. Chjamemu userId.
Eccu ciò chì u prucessu di creà una variabile dinamica pari:
Avà, ogni volta chì sta dumanda hè eseguita, u valore di a variabile dinamica serà aghjurnatu. È perchè variabili dinamichi sustegnu u miccanisimu di eredi gerarchicu, variàbbili userId serà dispunibule in discendenti verificate-creà node di ogni livellu di nidificazione.
Questa variabile serà utile per noi in a prossima dumanda. Vale à dì, dumanderemu l'utilizatore di novu creatu. Cum'è un zitellu di un node verificate-creà avemu da creà una dumanda verificate se esiste cun paràmetru url uguali localhost:3000/users/${$dynamicVar.userId}. Vede u disignu ${variable_name} questu hè ottene u valore di una variabile. Perchè Avemu una variabile dinamica, cusì per avè bisognu à accede à l'ughjettu $dynamicVar, vale à dì chì accede cumpletamente à una variabile dinamica userId parerà cusì ${$dynamicVar.userId}. Eseguite a dumanda è assicuratevi chì i dati sò dumandati currettamente.
L'ultimu passu restatu hè di dumandà a cancellazione. Avemu bisognu micca solu per verificà u funziunamentu di l'eliminazione, ma ancu, per dì cusì, per pulizziari dopu à noi stessi in a basa di dati, perchè I campi di email è username sò unichi. Dunque, in u node di verificazione di creazione, creeremu una dumanda di eliminazione di l'utilizatori cù i seguenti parametri
Tippu di dumanda - DELETE
URL - localhost:3000/users/${$dynamicVar.userId}
Lanciamu. Aspittemu. Ci piace u risultatu)
Ebbè, avà pudemu eseguisce stu script sanu in ogni mumentu. Per eseguisce u script avete bisognu di selezziunà da u menù di cuntestu verificate-creà item node Run.
I nodi in u script seranu eseguiti unu dopu l'altru
Pudete salvà stu script à u vostru prughjettu in esecuzione File -> Salvà u prugettu.
cunchiusioni
Tutte e caratteristiche di l'arnesi utilizati simpricimenti ùn pudianu micca mette in u formatu di stu articulu. In quantu à u culprit principale - u pacchettu nestjsx/crud - i seguenti temi restanu scoperti:
validazione persunalizata è trasfurmazioni di mudelli;
lingua di query putente è u so usu convenientu in fronte;
ridefinisce è aghjunghje novi metudi à crud controllers;
supportu di swagger;
gestione di caching.
Tuttavia, ancu ciò chì hè descrittu in l'articulu hè abbastanza per capisce chì ancu un tali marcu di l'impresa cum'è NestJS hà arnesi per a prototipazione rapida di l'applicazione. È un IDE cusì bellu cum'è TestMace permette di mantene un ritmu datu.