Doctrine peut utiliser plusieurs bases de données ou même plusieurs SGBD différents .Les connexions 'orm-default' et 'orm-alternative' sont uniquement des noms de configuration de connexion.
Dans l'application C3, la connexion 'orm-default' est utilisée pour le mode consultation. L'utilisateur du SGBD associé à ce profil n'a que les droits pour effectuer des requête de type 'select'.
Après avoir cliqué sur le bouton "Connexion" de la page d'identification, l'application effectue les vérification suivantes :
• Tentative de connexion à la BDD en utilisant la configuration 'orm-alternative' et le nom et le mot de passe entrés par l'utilisateur (Controller/IndexController.php lignes 44 à 49)
• En cas de succès, vérification des droits de l'utilisateur (lignes 70 à 81)
• Si l'utilisateur peut exécuter les requêtes de type 'delete', 'insert', 'update' et 'select' (ligne 84), la connexion 'orm-alternative' reste ouverte. Dans le cas contraire, la connexion est fermée (ligne 87).
-
-
Un peu plus sur cette pratique déviante
Merci au Dr philippe pour son analyse .
-
Pour toi MAMAN
-
En cuissardes!
-
Elles sont toutes belles!
Elles sont toutes belles , belles , belles, comme le jour !!!
-
RUPTURES CONVENTIONNELLES COLLECTIVES
Les premiers licenciements en rupture conventionnelle collective commencent !
-
Automatiser la différence entre deux fichiers
Par exemple on exporte toutes les jours les schémas DDL oracle
et un utilisateur non averti modifie la structure de son schéma.
Il faut pouvoir être capable de voir à l'instant t la différence de structure.
Il est donc possible d'automatiser la vérification du DDL des schémas.
https://www.techrepublic.com/blog/linux-and-open-source/how-to-compare-the-content-of-two-or-more-directories-automatically/
-
Comment supprimer les jobs datapumps en defunct
1. First we need to identify which jobs are in NOT RUNNING status. For this, we need to use below query (basically we are getting this info from dba_datapump_jobs)
SET lines 200
SELECT owner_name, job_name, operation, job_mode,
state, attached_sessions
FROM dba_datapump_jobs
ORDER BY 1,2;The above query will give the datapump jobs information and it will look like below
OWNER_NAME JOB_NAME OPERATION JOB_MODE STATE ATTACHED
———- ——————- ——— ——— ———– ——–
SCOTT SYS_EXPORT_TABLE_01 EXPORT TABLE NOT RUNNING 0
SCOTT SYS_EXPORT_TABLE_02 EXPORT TABLE NOT RUNNING 0
SYSTEM SYS_EXPORT_FULL_01 EXPORT FULL NOT RUNNING 0In the above output, you can see state is showing as NOT RUNNING and those jobs need to be removed.
Note: Please note that jobs state will be showing as NOT RUNNING even if a user wantedly stopped it. So before taking any action, consult the user and get confirmed
2. we need to now identify the master tables which are created for these jobs. It can be done as follows
SELECT o.status, o.object_id, o.object_type, o.owner||'.'||object_name "OWNER.OBJECT" FROM dba_objects o, dba_datapump_jobs j WHERE o.owner=j.owner_name AND o.object_name=j.job_name AND j.job_name NOT LIKE 'BIN$%' ORDER BY 4,2
STATUS OBJECT_ID OBJECT_TYPE OWNER.OBJECT
——- ———- ———— ————————-
VALID 85283 TABLE SCOTT.EXPDP_20051121
VALID 85215 TABLE SCOTT.SYS_EXPORT_TABLE_02
VALID 85162 TABLE SYSTEM.SYS_EXPORT_FULL_013. we need to now drop these master tables in order to cleanup the jobs
SQL> DROP TABLE SYSTEM.SYS_EXPORT_FULL_01;
SQL> DROP TABLE SCOTT.SYS_EXPORT_TABLE_02 ;
SQL> DROP TABLE SCOTT.EXPDP_20051121;4. Re-run the query which is used in step 1 to check if still any jobs are showing up. If so, we need to stop the jobs once again using STOP_JOB parameter in expdp or DBMS_DATAPUMP.STOP_JOB package
Some imp points:
1. Datapump jobs that are not running doesn’t have any impact on currently executing ones.
2. When any datapump job (either export or import) is initiated, master and worker processes will be created.
3. When we terminate export datapump job, master and worker processes will get killed and it doesn’t lead to data courrption.
4. But when import datapump job is terminated, complete import might not have done as processes(master & worker) will be killed. -
Script de sauvegarde Postgres
Un script réalisé par un DBA (celui que j'ai personnalisé) :
Un autre script réalisé par un autre DBA :
pg_back le script de base pour sauvegarder PostgreSQL
Il y a fort longtemps, et c’est ma première contribution relative à PostgreSQL, j’ai écrit un script de backup qui dump tout un serveur PostgreSQL avec
pg_dump
etpg_dumpall
. Il s’agit de pg_back.Cela peut paraître curieux de publier un simple script de sauvegarde que tout DBA PostgreSQL a écrit dans sa vie et sait écrire par cœur. Surtout qu’on le réécrit en permanence ce script, pour ajuster des chemins, des cas particuliers du serveur à sauvegarder et de l’environnement où l’on sauvegarde…
En bien justement, c’est parce qu’on le réécrit tout le temps que pg_back fait gagner du temps. Il est simple et court, facilement lisible, c’est du shell : tout ce qu’il faut pour en faire une bonne base pour créer un script de sauvegarde adapté. Quand on l’utilise comme patron pour en faire un outil plus évolué, on gagne du temps.
Justement rajouter du code pour l’adapter peut se faire au début. Si on n’a pas envie d’utiliser le fichier de configuration, on adapte la liste de variables au début du script, quitte à en rajouter.
L’autre endroit intéressant c’est tout à la fin, avant le
exit
, on peut rajouter tout ce qu’il faut pour externaliser ses sauvegardes.C’est par ici.
https://github.com/orgrim/pg_back
https://wiki.postgresql.org/wiki/Automated_Backup_on_Linux